Skocz do zawartości
drake87

6ghz To Max Na Procesor?

Rekomendowane odpowiedzi

Prawo Moora juz dawno sie nie sprawdza . Zyjemy w realnym swiecie i po prostu pewnych fizycznych barier sie nie przekroczy . Napewno technologia x86 nie pojdzie wyzej niez te 4GHz na stocku . Poczekajmy na nowe procesy technologiczne i architektory ;)

nie chodzi o x86... chodzi bardziej o granicę wywołaną prawami elektrotechniki....

 

@viod prawo moore'a (o ktorym mowisz) nie mowi o tym, ze co 18 miesiecy podwaja sie liczba ghz, a moc obliczeniowa komputera.

akurat prawo Moore'a w pierwowzorze mówiło bodajże o podwajaniu się liczby tranzystorów w układzie scalonym co 18 miesięcy....

 

No z lekka je ludzie przerobili :D co nie zmienia faktu że jest bzdurne i dlamnie jest ledwie farmazonem ;]

bzdurne czy nie... ale się w miarę sprawdza :D

 

Z tego wynika, ze możliwe bedzie 604Ghz B) Tak wiec nie ma sie co przejmowac, zapas na przyszłosc mamy całkiem spory... :D

to jeden tranzystor... zrób z tego układ liczący kilka milionów tranzystorów to już tak wesoło nie będzie... Raz że ze wzrostem częstotliwości objawiają sie różne zjawiska falowe... dwa, że rośnie moc wydzielana w takim scalaku... A z kryształu zawierajacego miliony tranzystorów ciepło da się odprowadzać w ograniczonych ilościach.

 

Moim zdaniem technika elektronicznych komputerów nie ma przyszłości aż tak świetlanej... Dalszy wzrost możliwości obliczeniowych będzie możliwy dzięki wykorzystaniu jako informacji nie elektronów (prądu) a fotony (światło).

Inną możliwością są też komputery biologiczne oparte o związki węgla. A do tego wszystkiego będą (i już są) próby stworzenia komputerów (procesorów) równoległych. Które pracują na niskich częstotliwościach, za to oferując równoległe przetwarzanie. Jak wiadomo albo i nie.. mózg człowieka działa na niskiej częstotliwości (do 200Hz o ile dobrze pamiętam) a możliwości w porównaniu z komputerem na wręcz przeogromne.. wszystko za sprawą równoległego przetwarzania...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

NIestety rownolegle przetwarzanie ma te wade, ze oprogramowanie tez musi byc napisane pod tym katem. Obecnie zdecydowana wiekszosc aplikacji oparta jest o przetwarzanie sekwencyjne i przetwarzanie rownolegle (poza specyficznymi przypadkami) da sie wykorzystac w bardzo ograniczonym stopniu.

 

Problem mniej wiecej taki jak z 64-bitowymi prockami (relatywnie malo softu rzeczywiscie te 64 bity wykorzystuje), tylko ze na duzo wieksza skale.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Moim zdaniem technika elektronicznych komputerów nie ma przyszłości aż tak świetlanej... Dalszy wzrost możliwości obliczeniowych będzie możliwy dzięki wykorzystaniu jako informacji nie elektronów (prądu) a fotony (światło).

Inną możliwością są też komputery biologiczne oparte o związki węgla. A do tego wszystkiego będą (i już są) próby stworzenia komputerów (procesorów) równoległych. Które pracują na niskich częstotliwościach, za to oferując równoległe przetwarzanie. Jak wiadomo albo i nie.. mózg człowieka działa na niskiej częstotliwości (do 200Hz o ile dobrze pamiętam) a możliwości w porównaniu z komputerem na wręcz przeogromne.. wszystko za sprawą równoległego przetwarzania...

No ekstra :D będę miał procesor wielkości latarki ze światło wodami ;] Albo biologiczny procek który będzie puszcał bąki :P A mózg człowieka nie koniecznie może być taki wspaniały, może gdybyśmy uzywali prawie 100% zdolności mózgu to i tak kompy byłyby szybsze w obliczeniach itp. przewaga mózgu jest taka że rozumie co widzi i na czym się skupia.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przewaga mozgu to jest elastycznosc - jest w stanie operowac na danych wejsciowych podanych w niemalze dowolny sposob, nie jest ograniczonym do jednej skladni i zbioru instrukcji.

 

O zdolnosci uczenia sie jako o oczywistej nawet nie wspominam.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przewaga mozgu to jest elastycznosc - jest w stanie operowac na danych wejsciowych podanych w niemalze dowolny sposob, nie jest ograniczonym do jednej skladni i zbioru instrukcji.

 

O zdolnosci uczenia sie jako o oczywistej nawet nie wspominam.

Ale z drugiej strony AI w kompie może być groźne :) trzeba by go nauczyć że nie może sobie za dużo pozwalać :lol2:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość Antar1us

Ale z drugiej strony AI w kompie może być groźne :) trzeba by go nauczyć że nie może sobie za dużo pozwalać :lol2:

Bo jeszcze sam zacznie myslec i posiadze wladze nad swiatem :) A przeciez Para sobie zalatwia wladze nad swiatem :lol:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

NIestety rownolegle przetwarzanie ma te wade, ze oprogramowanie tez musi byc napisane pod tym katem.

Ogólnie rzecz biorąc komputery równoległe będą musiały działać podobnie do ludzkiego mózgu.. oczywiście na mniejszą skalę... Nie wszystko co jest komputerem od razu musi mieć windowsa na pokładzie :) Samo słowo komputer oznacza maszynę zdolną do wykonywania obliczeń, nigdzie nie jest napisane że musi mieć monitor klawiaturę i myszkę :)

 

No ekstra :D będę miał procesor wielkości latarki ze światło wodami ;] Albo biologiczny procek który będzie puszcał bąki :P A mózg człowieka nie koniecznie może być taki wspaniały, może gdybyśmy uzywali prawie 100% zdolności mózgu to i tak kompy byłyby szybsze w obliczeniach itp. przewaga mózgu jest taka że rozumie co widzi i na czym się skupia.

chodzi głównie o tranzystory działające w oparciu o fotony a nie elektrony. a w biologicznych o zastosowanie białek do budowania struktur krzemopodobnych. Mózg człowieka nie jest wspaniały... on jest wręcz wyśmienity.. imho to najlepszy twór występujący na Ziemi :) A to że większość z nas nie używa go zbyt bardzo to już inna kwestia.. Z resztą spójrzcie na dzienne średnei zużycie waszych procków... 5%? :) Więc po co wam maszyny z zegarem 3GHz :).

Wątpię czy da się uzywać 100% możliwości mózgu a to ze względu na to iż mózg ma wręcz nieograniczone możliwości... Więc nigdy nie wiesz czy nie można urzyć go jeszcze inaczej :) Poza tym komputer w odróżnieniu od człowieka.. wykonuje bardzo szybko bardzo proste operacje... natomiast gdy człowiek wykonuje dość powoli bardzo, wręcz niewyobrażalnie skomplikowane... No i tylko komputer potrafi się mylić 3miliardy razy na sekundę :D

 

Ale z drugiej strony AI w kompie może być groźne :) trzeba by go nauczyć że nie może sobie za dużo pozwalać :lol2:

Póki co w obecnych architekturach kompów nie liczyłbym na jakiś przełom w dziedzinie AI i stworzeniu matrixa :). PS.. mam ten zaszczyt być na profilu dyplomowania ze słowami sztuczna inteligencja w nazwie więc troszkę się orientuję w temacie :)

 

Bo jeszcze sam zacznie myslec i posiadze wladze nad swiatem :) A przeciez Para sobie zalatwia wladze nad swiatem :lol:

obecnie komputer jest w stanie zasymulować myślenie myszy i tym podobnych zwierzątek... Taka mysz ceciach!e się jakąś inteligencją etc.. ale jak się ma inteligencja myszy do inteligencji najgłupszego człowieka? :) Główny problem w tym iż komputery symulują tą nieszczęsną mysz w sposób znamienny dla siebie... czyli przetwarzając dane liniowo (czy szeregowo). Kompy są na tyle szybkie że do mózgu myszy jeszcze wystarczą... Nic więcej raczej się nie da uzyskać na komputerach z przetwarzaniem szeregowym.. gdyż częstotliwość pracy musiała by wzrosnąć niewyobrażalnie żeby podwoić symulowaną inteligencję. Dlatego przyszłosć tutaj w komputerach równoległych i całkiem odmiennym ich działaniu. Już nie chodzi tutaj o płyty główne z 2 prockami czy nawet 4... Chodzi o procesor który sam w sobie potrafi wykonywać np 200 zadań równocześnie, nie jedno po drugim jak to się dzieje obecnie (nawet pomijając potoki bo to de facto w tym ujęciu tez przetwarzanie szeregowe).

 

To jest już zupełnie inne urządzenie, inne działanie, programy nie sa już normalnymi programami.

 

Takie komputery jeśli się rozwiną będą posiadały inteligencję i będą potrafiły myśleć w sposób zbliżony do istot żywych. Niektórym wyda się to śmieszne.. Jednak gdyby wziąć pod uwagę proste istoty żywe i ich modele komputerowe... to nie widać różnicy w ich zachowaniu. Można napisać program nawet na obecne komputery który zachowuje się inteligentnie. Można wręcz rzec że potrafi myśleć...

I nieraz słychać opinię sceptyków, iż komputery robią tylko to co im napisze programista... Nie prawda... Programista może stworzyć jedynie otoczkę... interfejs pomiędzy modelem matematycznym np sieci neuronowej a sposobem przetwarzania jej przez komputer, a całe właściwe działanie sieci neuronowej jest już zależne od niej samej.

Podobnie programowanie genetyczne np, nie wnikając w jego istotę.. da się napisać czy wręcz stworzyć np robocika na kołkach i z czujnikami.. który sam bez ingerencji człowieka nauczy się poruszać w terenie omijając przeszkody w sobie tylko znany sposób. Czy wg panujących definicji, nie można by nazwać jego zachowania MYŚLENIEM? :wink:

 

Myślenie czy inteligencja jest imho rzecza naturalną... wystarczy stworzyć tylko warunki żeby mogła powstać i się rozwijać. Dlatego pisząc inteligetne programy można dojść do wniosku iż program wykazuje bardzo podobne zachowanie do znajomego u istot żywych, mimo że sam programista nie nakazał programowi robić to czy coś innego... Jak ktoś kiedyś napisał program na sieci neuronowej, z algorytmem genetycznym bądź tzw automat komórkowy to być może doznał tego uczucia... :)

Edytowane przez PelzaK

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czyli jakie prawa bo nie wiem :unsure: możesz je przybliżyć :wink:

Ja robot nie oglądałeś czy co :P

 

1. A robot may not injure a human being or, through inaction, allow a human being to come to harm.

 

2. A robot must obey orders given it by human beings except where such orders would conflict with the First Law.

 

3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.

Edytowane przez Shiningami

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja robot nie oglądałeś czy co :P

 

1. A robot may not injure a human being or, through inaction, allow a human being to come to harm.

 

2. A robot must obey orders given it by human beings except where such orders would conflict with the First Law.

 

3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.

THX ;) Nie oglądałem "Ja Robot" :oops:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Kiedyś problemem było adresowanie - poszwrzyli szynę.

Potem pojemność, wymyslili kompresję itd..

Zawsze da się obejść. Tylko w pewnym momencie prawa rynku zaczynają byc wazniejsze niz prawo postęu technologicznego.

Z czasem wyprodukowanie proca szybszego o jakiś mHz będzie tak drogie ze po prostu nieopłacalne.. bo wyobrazcie sobie sytuacje

ze proc powiedzmy P6 z zegarem 6,5GHz kosztuje 1000zł

a P6 z zegarem 7GHz kosztuje 3200zł.. kto kupi taki proc? znikoma liczba ludzi, a szczerz mozna powiedziec ze prawie nikt.

 

Nowe procesory nie sa produkowane dlatego ze firmy biegną za rozwojem i chca nam dac coraz lepsze maszyny - pni chca coraz wiecej ZAROBIĆ. proces technologiczny 0,009 byl juz dano wymyslony, tylko zen ie oplacalo sie im tak przyspieszyc, bo lepiej bylo powoli wygasic stare technologie - zarobic na tym kawal kasy i wprowadzic w/w technologie jako cud techniki.. przy czym to zciema bo tak naprawdę proces ten daje mozliwosc wiekszej ilosci ulozenia rdzeni na tafli, dzieki czemu koszty produkcji spadają o kilka % w dół.

 

Pamietacie jak piano o procesorach... ze 4hgz bedzie musial miec wentylator jak odkurzacz by nie ugotować wszystkiego w okolicy metra :)

Ktoś wpadł na pomysł zmniejszenia napiecia, co bylo mzliwe dzieki miniaturyzacji, ktos wpadł na pomysł heatpipe.. i wynikiem tego byly procki które są o wiele cichsze - nawet na stockowym wentylu.

 

Ja do rozwoju technologicznego podchodze sceptycznie. gdyz rozwoj technologiczny to my mamy w sektorze wojskowym..

to co nam firmy INTEL i AMD proponują to wynik marketingu a nie rozwoju technologicznego...

 

Czy technologia HT jest taka nowa? znan ajest przynajmniej od 10 -15 lat.. ale zadna firma nie chciala tak szybko isc do przodu, bo w pewnym momencie po prostu przestaje sie oplacac rozwoj, wiec leoiej ciagnąc w nieskonczonosc tą pogoń za hercami...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Poza tym jakiś czas temu przystosowano procesory graficzne do obróbki innych danych i przy kilkukrotnie mniejszej prędkości radzą sobie duużo lepiej,

a dlaczego?

 

Bo w procesorach graficznych praktycznie każdy człon wykonawczy jest połączony ze wszystkimi innymi i to właśnie przypomina nieco strukturę ludzkiego mózgu.

 

Dla jednostek centralnych wymyślono technologie w stylu HT i inne aby zwiększyć ilośc wykonywanych instrukcji na sekundę a i tak naprawdę 40% cykli zegara jest marnowanych. W procesorach graficznych wszystko jest rozwiązane bardziej uniwersalnie za pomocą przełączników krzyżowych, bo czy słyszeliście o czymś takim jak chybienie cache w GPU, nie bo tam to po prostu nie ma miejsca.

Edytowane przez BENITO

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Skoro mowimy tutaj o prawach Assimova, to co sadzicie o tym?

imho te prawa są czysto teoretyczne... i bardziej nadają się dla powieściopisarzy SF :) Weźcie byle jaki program który miał z założenia np coś tam chronić w komputerze.. a tym czasem ten program to coś zepsuł (awaria zasilania etc). Prawa prawami.. ale błąd może wystąpić wszędzie... Zwłaszcza gdy mowa o sztucznej inteligencji, gdzie skomplikowanie programu jest wręcz ogromnie i do końca nawet nie wiadomo jak ten program działa :)

 

W przypadku tranzystora jest to niemozliwe.

wtedy to juz nie bedzie tranzystor. wymysla temu jakasnowa nazwe:P

to właśnie miałem na myśli... chodzi o element sterujący a nie o fakt bycia tranzystorem...

 

Poza tym jakiś czas temu przystosowano procesory graficzne do obróbki innych danych i przy kilkukrotnie mniejszej prędkości radzą sobie duużo lepiej,

a dlaczego?

 

Bo w procesorach graficznych praktycznie każdy człon wykonawczy jest połączony ze wszystkimi innymi i to właśnie przypomina nieco strukturę ludzkiego mózgu.

 

Dla jednostek centralnych wymyślono technologie w stylu HT i inne aby zwiększyć ilośc wykonywanych instrukcji na sekundę a i tak naprawdę 40% cykli zegara jest marnowanych. W procesorach graficznych wszystko jest rozwiązane bardziej uniwersalnie za pomocą przełączników krzyżowych, bo czy słyszeliście o czymś takim jak chybienie cache w GPU, nie bo tam to po prostu nie ma miejsca.

Radzą sobie lepiej gdyż są dedykowane do danego działania.. Spróbuj na procesorze graficznym obrabiać muzykę.. to się skicha i moja motorolka lepiej sobie z tym poradzi :). Procesor jest tworem który zawiera pełno różnych różności w sobie i to software ustala co i jak i kiedy użyć. Natomiast GPU nie jest układem uniwersalnym. Ma on tylko jeden cel.. Ciągle otrzymuje wręcz te same polecenia, tylko dane się zmieniają. Więc panowie którzy wymyślili GPU zrobili to tak aby hardware robił więcej niż software... a jak wiadomo sprzęt działa szybciej niż programowa emulacja...

 

Chybienie cache w GPU (nie wiem czy występuje czy nie) jeśli nie występuje to jest to zasługa tego iż procesor ten jak wspomniałem wyżej przetwarza z góry ustalone zadania. W przypadku CPU chybienie cache występuje ze względu na rozgałęzienia w programie, skoki warunkowe etc.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale z drugiej strony AI w kompie może być groźne icon_smile3.gif trzeba by go nauczyć że nie może sobie za dużo pozwalać laugh.gif

nie bój nic ... taki kom przejdzie załamanie i się sam wykończy gdy odkryje że ma w kur..... dziurek a zadną nie moze sr..ć .. to sie nazywa samookreślenie i świadomośc :P z tym będzie miał problem :P bedzie prawie jak człowiek ...

PRAWIE robi wielką różnice :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

nie bój nic ... taki kom przejdzie załamanie i się sam wykończy gdy odkryje że ma w kur..... dziurek a zadną nie moze sr..ć .. to sie nazywa samookreślenie i świadomośc :P z tym będzie miał problem :P bedzie prawie jak człowiek ...

PRAWIE robi wielką różnice :D

Mam rozumieć że AI nie może powstać bo komputer przejdzie załamanie nerwowe (tranzystorowe :D ) ? :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

AI to dosyć sporne okreslenie... Większość ludzi stwierdzi że nie ma sztucznej inteligencji, gdyż im się od razu wydaje że taki komputer (czy twór) musi myśleć, mieć świadomość i zachowywać się jak człowiek...

 

Samo określenie sztucznej inteligencji pociąga za sobą jedynie fakt stoworzenia np programu komputerowego, który potrafi rozwiązywać problemy wymagające użycia inteligencji, podobnie jak by to rozwiązał człowiek. Zatem wierzcie mi na słowo.. każdy z was ma na swoim kompie program, który implementuje sztuczną inteligencję :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

AI to dosyć sporne okreslenie... Większość ludzi stwierdzi że nie ma sztucznej inteligencji, gdyż im się od razu wydaje że taki komputer (czy twór) musi myśleć, mieć świadomość i zachowywać się jak człowiek...

 

Samo określenie sztucznej inteligencji pociąga za sobą jedynie fakt stoworzenia np programu komputerowego, który potrafi rozwiązywać problemy wymagające użycia inteligencji, podobnie jak by to rozwiązał człowiek. Zatem wierzcie mi na słowo.. każdy z was ma na swoim kompie program, który implementuje sztuczną inteligencję :)

Mam się zacząć bać kompa ? czy może windowsa ? :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Samo określenie sztucznej inteligencji pociąga za sobą jedynie fakt stoworzenia np programu komputerowego, który potrafi rozwiązywać problemy wymagające użycia inteligencji, podobnie jak by to rozwiązał człowiek. Zatem wierzcie mi na słowo.. każdy z was ma na swoim kompie program, który implementuje sztuczną inteligencję :)

Wydaje mi sie, ze nie jest to do konca precyzyjne okreslenie. Programy komputerowe opieraja sie w przytlaczajacej wiekszosci na z gory zdefiniowanych algorytmach i jezeli trafia na problem, ktorego za pomoca tych algorytmow nie da sie rozwiazac to sypia bledem.

 

SI (tudziez z angielska AI) polega IMHO na tym, ze komputer w wypadku napotkania problemu, z ktorym sie nie spotkal, probuje wypracowac metode rozwiazania, korzystajac z juz posiadanej wiedzy i ew. danych od uzytkownika.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

AI to dosyć sporne okreslenie... Większość ludzi stwierdzi że nie ma sztucznej inteligencji, gdyż im się od razu wydaje że taki komputer (czy twór) musi myśleć, mieć świadomość i zachowywać się jak człowiek...

 

Samo określenie sztucznej inteligencji pociąga za sobą jedynie fakt stoworzenia np programu komputerowego, który potrafi rozwiązywać problemy wymagające użycia inteligencji, podobnie jak by to rozwiązał człowiek. Zatem wierzcie mi na słowo.. każdy z was ma na swoim kompie program, który implementuje sztuczną inteligencję :)

 

Tak w skrucie to algorytm który sam się uczy nowych algorytmów.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Shiningami - śmiej się śmiej... za dużo filmów SF się naoglądałeś :D Na razie bać się nie musisz, bo czy boisz się, że na twoje życie umyślnie targnie się twór o inteligencji mrówki? :) Póki co na aktualnym etapie za pomocą komputerów można w pełni zasymulować - jesli można tak to nazwać, inteligencję już nie takich głupich zwierzątek pokroju myszy, chomika.... I wierzcie mi, tkai program to nie jest pare IFów na krzyż... że IF światło THEN uciekaj... IF głodny THEN szukaj żarcia. To są programy które w głównej mierze tworzą inteligencję bez jej dosłownej implementacji. Jest to bardzo dziwne a zarazem ciekawe, zagłebiając sie w przemyślenia na ten temat można dojść do wniosku iż inteligencja jakgdyby z definicji po prostu istnieje.

Wszelkie programy symulujące sztuczne życie (np znana, pierwsza GAME OF LIFE czy np efektowne zachowanie stada - FLOYS) są programami w których zachowania tak bardzo przypominające zachowania ze świata żywych organizmów wynikły po prostu same z siebie... Nikt tam nie pisał jak mają sie zachowywać...

 

costi - no ze mną się nie kłócisz.. to są oficjalne definicje AI...

SI (tudziez z angielska AI) polega IMHO na tym, ze komputer w wypadku napotkania problemu, z ktorym sie nie spotkal, probuje wypracowac metode rozwiazania, korzystajac z juz posiadanej wiedzy i ew. danych od uzytkownika.

SI to strasznie nieudolne tłumaczenie na j.polski, lepiej to brzmi w klasycznym angielskim, SI - oznacza system jednostek metrycznych.

Z resztą o tym mniej więcej piszę... Np system expertowy (znany z neta 21question) - potrafi odpowiadać na pytania opierając się na wcześniejszych doświadczeniach i wiedzy nabytej od ludzi... Jeśli ktoś z was się nim nie bawił to polecam, zabawa przednia :D ... A to jest tylko 1 program z 1 dziedziny AI, których są setki, tylko przeznaczone do bardziej szczytnych zadań niż zgadywanie co użytkownik ma na myśli. Niestety zapodziałem gdzieś linka, podam później jak znajdę...

 

Zatem w tym jak i w wielu innych problemach informatyka nie dysponuje algorytmami rozwiązania a mimo to programy rozwiązują te zadania... jak ? Tym się właśnie zajmuje AI.

 

KvaNfield - niestety nie :) Ideą sztucznej inteligencji jest rozwiązywanie problemów co do których NIE ZNAMY algorytmów ich rozwiązania, lub algorytm ten jest ogromnie skomplikowany obliczeniowo, tak że bardziej opłaca się zastosowanie inteligentnych algorytmów, ze tak to nazwę, które de facto NIE implementują JAK rozwiązać zadanie, a jakoś rozwiązują... Jako przykład algorytm minimax stosowany w grach logicznych.. Przykładowo grę w szachy dało by się rozwiązać, tj napisać program który zawsze wygra. Problem w tym że trzeba przejrzeć tzw drzewo gry - czyli wszystkie możliwe sekwencje ruchów, których jest !!! 10^120. W celu zobrazowania jak wielka jest to liczba to podam szacowaną ilość atomów we wszechświecie - TYLKO 10^80! Gdyby Wykorzystać zatem najszybszy znany nam dzisiaj komputer, i gdyby liczył on od początku powstania wszechświata to policzył by dopiero 1/10 tego co miał wyliczyć.... (mam nadzieję że nie pomyliłem w tym ostatnim).

A jak wiemy.. istnieje DEEPBLUE, który jednak zwyciężył z człowiekiem. Stało się tak głównie za sprawą olbrzymiej mocy obliczeniowej, ale i przede wszystkim za sprawą inteligentnych algorytmów, które opisują zachowanie sztucznej inteligencji.. a nie rozwiązania problemu...

 

Więc trudno tu mówić o tworzeniu algorytmu do rozwiązania zadania które nie ma algorytmu rozwiązania :)

Edytowane przez PelzaK

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Chyba z Deepblue to jest inna historia, bo w szachach mozna przewalac w ogromnym tempie mozliwe kombinacje i wcale nie trzeba przetwarzac calego drzewa gry - mamy okreslona sytuacje na planszy i snujemy "rozwazania" np. na 5 ruchow naprzod, wybierajac rozne galezie drzewa decyzyjnego w zaleznosci od sytuacji na planszy. Do tego dochodzi jeszcze rachunek prawdopodobienstwa sprzezony z biblioteka zagran i zapisow partii do przewidywania ruchow przeciwnika.

 

Zreszta z Chessmasterem na domowym kompie tez mozna przegrac, a raczej nie spodziewam sie tam zaawansowanej sztuczej inteligencji ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak narazie to jedyne na co wpadły moje kompy same z siebie przez ostatnie 10-lat to conajwyżej by się zawiesić, myślę że nawet super komputery więcej nie wymyśliły. Komp, nawet będący siecią neuronową wykonuje to co jest w programie, lub go nauczono i nic pozatym nie zrobi (lub, jak zrobi to się zawiesi :lol: Szybkość kompa ma tu mało do powiedzenia, mądry program co najwyżej będzie działał powoli, ale jednak. Co do tego że deep blue ograł Kasparowa to nie ma się czemu dziwić. Programowało go paręset ludzi, każdy wpakował tam całą swoją wiedzę o programowaniu i szachach, a komputer to tylko przeliczał. Ja widziałem tam raczej pojedynek Kasparowa z dużym instytutem, pełnym genialnych programistów konsultujących się ze wszelkimi możliwymi mistrzami szachowymi, oraz analizującymi słynne mecze. Zresztą czy ta maszyna miała jakąkolwiek satysfakcję z wygranej?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

Ładowanie



×
×
  • Dodaj nową pozycję...