djsilence Opublikowano 15 Lutego 2008 Zgłoś Opublikowano 15 Lutego 2008 (edytowane) NVidia zdecydowała włożyć wiele wysiłku w przełożenie silnika Agei - PhysX na C.U.D.A., dzięki czemu moc karty będzie przełożona częściowo na obliczanie fizyki. Wiadomość ta pochodzi prosto od szefa Nvidii Jen-Hsun Huang-a, który obiecuje, iż wystarczy update sterowników aby osiągnąć zamierzony efekt. Mimo, iż nie podano daty wypuszczenia uaktualnienia zawierającego PhysX, to możemy się spodziewać się go już niebawem, tym bardziej, że programiści Ageia pracują obecnie do Nvidii. http://techreport.com/discussions.x/14147 Innymi słowy stało się to o czym mówili NVidia i ATI od momentu wejścia Agei na rynek. Obliczanie fizyki zaimplementowano w karcie graficznej, z tym że kosztem istnienia Firmy Ageia. Edytowane 15 Lutego 2008 przez djsilence Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
-talib- Opublikowano 15 Lutego 2008 Zgłoś Opublikowano 15 Lutego 2008 ...moc karty będzie przełożona częściowo na obliczanie fizyki... Pewnie kosztem wydajności. Powinni zaimplementować sam układ w chip NV. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość <account_deleted> Opublikowano 15 Lutego 2008 Zgłoś Opublikowano 15 Lutego 2008 No i kolejna firma która wymyśliła coś konkretnego została wdeptana w glebę... NV=MS2 Nie ma szans, żeby GPU mógł oderwać się od gruntu na wykresie porównującym go z chipem agei - przynajmniej nie obecne generacje. Fakt że gpu może szybko liczyć wektory niewiele daje - trzeba jeszcze uwzględniać masę i materiał z którego są zbudowane obiekty, wykrywać kolizje, a wkońcu zastosować modele cząsteczkowe obiektów, itd. GPU nie może tego zrobić bez pomocy CPU i bez utraty "mocy graficznej" ATI i NV przestraszyły się Agei oraz wizji utraty monopolu. NV jako bardziej kasiasta poprostu zabiła projekt, podobnie jak chipsety ULI zresztą. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
RaKLeZ Opublikowano 15 Lutego 2008 Zgłoś Opublikowano 15 Lutego 2008 No ciekawy jestem czy 1 gf8 bedzie mogl chociaz w jakims stopniu korzystac z dobrodziejstw driverow AGEIA, w co watpie... Bo gosc sugeruje raczej, ze bedzie sie to opieralo na SLI, gdzie 1 karta bedzie zajmowac sie obliczeniami fizyki... czyli to samo co ATI mialo/ma w planie... jezeli tak, to raczej malo oplacalne rozwiazanie... juz kupno samego PhysiX-a jest bardziej oplacalne... Huang thinks the integration will encourage people to spend more on graphics processing hardware, as well: Our expectation is that this is gonna encourage people to buy even better GPUs. It might—and probably will—encourage people to buy a second GPU for their SLI slot. And for the highest-end gamer, it will encourage them to buy three GPUs. Potentially two for graphics and one for physics, or one for graphics and two for physics. ... nothing special... Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
LiquidForce Opublikowano 16 Lutego 2008 Zgłoś Opublikowano 16 Lutego 2008 Przestraszyły się Ageii? Jeszcze na oczy na żadnym forum nie widziałem kompa z tą ich kartą :blink: Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość <account_deleted> Opublikowano 16 Lutego 2008 Zgłoś Opublikowano 16 Lutego 2008 (edytowane) Tak, bo we wspólczesnych grach najbardziej kuleje fizyka. GPU zarówno NV jak i ATI po prostu nie nadają się do liczenia fizyki i jak na razie nie zanosi się na jakieś zmiany w tym temacie. Ageja dawała niesamowitą moc obliczeniową i mogła naprawdę namieszać na rynku. Gdyby firma się wybiła, to mogła by poważnie zagrozić obydwu monopolistom (kto wie może nawet wypuścili by z czasem własne GPU i dopiero byłaby jazda) EDIT: nie wdziałeś kompa z phys-x'em -> woow, to słabo szukałeś Edytowane 16 Lutego 2008 przez tomazzi Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość Opublikowano 16 Lutego 2008 Zgłoś Opublikowano 16 Lutego 2008 (edytowane) Ageja dawała niesamowitą moc obliczeniową i mogła naprawdę namieszać na rynku.AGEIA nie ageja ... poczytaj przynajmniej podsumowanie i pierdół nie pisz, Physx to karta niewypał, więc jak gów.no może się wybić ? http://www.egielda.com.pl/?str=art&id=1238-10 Edytowane 16 Lutego 2008 przez Gość Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość <account_deleted> Opublikowano 16 Lutego 2008 Zgłoś Opublikowano 16 Lutego 2008 AGEIA nie ageja ... poczytaj przynajmniej podsumowanie i pierdół nie pisz, Physx to karta niewypał, więc jak gów.no może się wybić ? Literek się czepiasz? no gratki... Szkoda że nie umiesz czytać ze zrozumieniem, nawet artykułu który podlinkowałeś... Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Sulaco Opublikowano 16 Lutego 2008 Zgłoś Opublikowano 16 Lutego 2008 (edytowane) GPU zarówno NV jak i ATI po prostu nie nadają się do liczenia fizyki i jak na razie nie zanosi się na jakieś zmiany w tym temacie.bzdury panie piszecie. PPU ageia to byla zwykla programowalna jednostka wektorowa. nic nie stoi na przeszkodzie, aby podobe obliczneia robily obecene GPU swoimi zunfikowanymi jednostkami -> hint technologia CUDA nv Ageja dawała niesamowitą moc obliczeniową i mogła naprawdę namieszać na rynku.niesamoita moc, cale ok.50GFlop, obecnie GPU maja moc obliczeniowa 10x wieksza Gdyby firma się wybiła, to mogła by poważnie zagrozić obydwu monopolistom (kto wie może nawet wypuścili by z czasem własne GPU i dopiero byłaby jazda)to po prostu stracilo sens przy obecnej mocy i mozliwosciach GPU. lepiej skupic sie na SDK i wpasc pod skrzydla gigianta, niz probowac z nim walczyc. Edytowane 16 Lutego 2008 przez Sulaco Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Mario2k Opublikowano 16 Lutego 2008 Zgłoś Opublikowano 16 Lutego 2008 (edytowane) Widac mamy na forum wieliu "Specjalistow" znajacych doglebnie mozliwosci obecnych GPU Panowie nic tylko zacznijcie pisac drivery :) albo inny soft pod gpu ;) Z tego co czytalem tu i owdzie ,to bardzo ladnie mozna liczyc prosta fizyke w grach za pomoca obliczen kolizji Vertex'ow a to chyba jedna z podstawowych opcji dzisiejszych GPU . Problem jak zwykle lezy po stronie ludzkiej i problemach w dobrym oprogramowaniu tego czegos . Sulaco Zgadzam sie z toba w 99% ;) Edytowane 16 Lutego 2008 przez Mario2k Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
p3dzi0r Opublikowano 16 Lutego 2008 Zgłoś Opublikowano 16 Lutego 2008 no akurat z ta jednostka wektorowa to ma racje, gpu to procesor wektorowy, bez problemu mozna na nim liczyc fizyke, macierze i jazda. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość <account_deleted> Opublikowano 16 Lutego 2008 Zgłoś Opublikowano 16 Lutego 2008 niesamoita moc, cale ok.50GFlop, obecnie GPU maja moc obliczeniowa 10x wiekszaMIPS i FLOPS jako miara "mocy" obliczeniowej straciły sens jakieś 15 lat temu - teraz to tylko puste słowa używane przez dział marketingu (od biedy nadają się do porównywania mocy procków opartych na zbliżonej architekturze). Przykład1: swego czasu NV chwaliła się że ich GPU wykonują X razy więcej operacji zmiennoprzecinkowych niż CPU intela -> no to spróbuj policzyć na GPU ile to 2.0 + 2.0 :wink: Przykład/pytanko2: ARM10 800MHz vs np. P4 3.6GHz co jest szybsze? podpowiedź: P4 ma więcej MIPS to na pewno... :lol: Sory ale widzę że nie ma sensu dalej dyskutować... marketing czyni C.U.D.A :lol2: to po prostu stracilo sens przy obecnej mocy i mozliwosciach GPU. lepiej skupic sie na SDK i wpasc pod skrzydla gigianta, niz probowac z nim walczyc.To nie sensu zabrakło, tylko cierpliwości inwstorów projektu Ageia (no i przesadzili z cenami) - tak sobie myślę... Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Mario2k Opublikowano 16 Lutego 2008 Zgłoś Opublikowano 16 Lutego 2008 tomazzi Jako ze chyba znasz temat , napisz wiec na czym bedzie latwiej( nie szybciej ) policzyc fizyke CPU klasy C2D Czy GPU klasy G92 Mnie sie wydaje ze latwiej oprogramowac fizyke na CPU ,ale jako ze jestem zielony w temacie opieram swoj poglad na tym co mnie sie obilo o oczy w necie ;) Prawda jest taka ze najwiecej ciala daja programisci , coraz to wieksza moc obliczeniowa GPU/CPU lezy odlogiem . Co do fizyki na PC to pamietam takie stare demko z przed 8 lat chyba z czasow promowania GeForce 250 T&L ( transform & lighting ) ( jeszcze wtedy nie bylo chyba specyfikacji PS i VS ) owe demko to maly pokoj w ktorym mozna bylo poruszac/rzucac przedmiotami ktore jako tako reagowaly z otoczeniem , to byla chyba pierwsza prosta fizyka jaka widzialem w RealTime na PC . Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość <account_deleted> Opublikowano 16 Lutego 2008 Zgłoś Opublikowano 16 Lutego 2008 Dopuki NV nie wrzuci do kart prawdziwego procesora fizyki łatwiej będzie liczyć na CPU, szczególnie multicore (z drobnym wspomaganiem GPU - jeśli te "cuda" wogóle doczekają się implementacji w grach). Chodzi o to, że nawet jak GPU wychwyci kolizję, to i tak CPU musi przeliczyć masę, moment pędu/obrotowy itd, żeby określić nowy tor ruchu - to jest ok 80% obliczeń - Ageia robiła to w znacznej mierze "sprzętowo" dla olbrzymiej ilości obiektów jednocześnie. ... poza tym jak podejrzewam NV będzie miało sporą zagrychę jak wyciągnąć dane o kolizjach z GPU - to jest klucz do rozpoczęcia zabawy, bo liczenie macierzy to pikuś. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Sulaco Opublikowano 16 Lutego 2008 Zgłoś Opublikowano 16 Lutego 2008 Dopuki NV nie wrzuci do kart prawdziwego procesora fizyki łatwiej będzie liczyć na CPUprzeciez napisalem wyraznie, czym byl PPU ageia - jednostka wektorowa z kontorlerem pamieci, w uproszeniu. PPU powstal kiedy nikt nie myslal o podobnych jednostkach w GPU, kiedy takie sie pojawily brniecie w osobny uklad zupelnie stracilo sens. wczytaj sie troche w kwestie obliczen na poziomie obecnych GPU (np. CUDA, Gelato itp) bo widze, ze zatrzymales sie chyba na poprzedniej ich generacji. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość <account_deleted> Opublikowano 16 Lutego 2008 Zgłoś Opublikowano 16 Lutego 2008 (edytowane) przeciez napisalem wyraznie, czym byl PPU ageia - jednostka wektorowa z kontorlerem pamieci, w uproszeniu.No w bardzo dużym uproszczeniu - chyba jednak nie jarzysz na czym polega różnica pomiędzy dedykowanym HW a softem wspomaganym przez HW, wektor to wektor tak? ;) PPU powstal kiedy nikt nie myslal o podobnych jednostkach w GPU, kiedy takie sie pojawily brniecie w osobny uklad zupelnie stracilo sens. wczytaj sie troche w kwestie obliczen na poziomie obecnych GPU (np. CUDA, Gelato itp)To prawda, ale g92 też nie jest gotowy do liczenia fizyki, choć pewnie następne generacje już będą... Tak się składa, że mam pojęcie na temat Geleto, o Cudach jeaszcze się uczę - powiedz mi gdzie wyczaiłeś w dokumentacji Cudów albo Gelato słowo na temat liczenia fizyki, bezpośrednio przez GPU? Bo jak narazie oba te systemy służą do wspomagania renderingu non-real time i ew. driverów, jeśli starczy mocy obliczeniowej ;) żeby tego użyć do liczenia fizyki/matematyki ogólnej, trzeba najpierw odpowiednio przekształcać dane (przed i po operacji na GPU), o wykrywaniu kolizji obiektów w real time nie ma mowy - procek musi to zrobić. Zresztą, co tu się kłócić - NV w końcu dopnie swego, jednak imo na razie nie ma co podniecać się marketingowym bełkotem. Edytowane 16 Lutego 2008 przez tomazzi Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Sulaco Opublikowano 16 Lutego 2008 Zgłoś Opublikowano 16 Lutego 2008 Tak się składa, że mam pojęcie na temat Geleto, o Cudach jeaszcze się uczę - powiedz mi gdzie wyczaiłeś w dokumentacji Cudów albo Gelato słowo na temat liczenia fizyki, bezpośrednio przez GPU?chodzilo o przyklad wykorzystnia GPU, a fizyka i CUDA? mysle, ze dynamika molekularna jest dosc "fizyczna", przynajmniej tak mi sie wydaje. EOT Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość <account_deleted> Opublikowano 17 Lutego 2008 Zgłoś Opublikowano 17 Lutego 2008 (edytowane) :blink: A... to sory myślałem, że chodzi o akcelerator fizyki w grach real time... :lol: Myślisz, że współczesna fizyka molekularna nadal pozostała na etapie kolizji kuleczek elektronów krążących po idealnie okrągłych orbitach? :lol2: W takim razie dało by się to jakoś przełożyć np. na kolizję deski ze ścianą... Niestety to jest zupełnie co innego. Teoretycznie dowolną funkcję można przekształcić w macierz i policzyć na GPU, tyle że tylko niektóre funkcje dadzą zysk w postaci przyspieszenia obliczeń, tym bardziej że dochodzi czas transferu GPU<->CPU (CPU musi najpierw wykonać konwersję formatu danych, więc przy dynamice gier typu FPS jest to najwolniejszy element). Zamiast czytać reklamy, poczytaj sobie SDK. EDIT: Jak to zwykle bywa w dziale nowości nie da się potwierdzić Twojej ani mojej "racji", bo pierwsze gry wykorzystujące te "nowości" ukażą się na długo po tym jak zeszrotujesz swoje 88 SLI ;) EOT Edytowane 17 Lutego 2008 przez tomazzi Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
p3dzi0r Opublikowano 17 Lutego 2008 Zgłoś Opublikowano 17 Lutego 2008 a od kiedy to liczysz dokladne funkcje, w przypadku bzdetow typu grafika itp uzywa sie metod optymalizacji, a w szczegolnosci aproksymacji , czyli uzywa sie funkcji znacznie mniej zloznych dajacych zblizone wyniki. Innymi slowy chcac liczyc dokladnie zarzniesz ta swoja fizykokarte ;] Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość <account_deleted> Opublikowano 17 Lutego 2008 Zgłoś Opublikowano 17 Lutego 2008 Masz 100% racji :D Tylko że co innego jest przeliczyć np. zmianę stanów energetycznych 100mln cząstek na energię wypromieniowaną z obiektu, a co innego w którą stronę poleci wirująca deska trafiona w locie pociskiem. ... a miał być eot... :rolleyes: Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
_maniak_ Opublikowano 18 Lutego 2008 Zgłoś Opublikowano 18 Lutego 2008 Masz 100% racji Tylko że co innego jest przeliczyć np. zmianę stanów energetycznych 100mln cząstek na energię wypromieniowaną z obiektu, a co innego w którą stronę poleci wirująca deska trafiona w locie pociskiem. ... a miał być eot... A po co ci w głupih grach liczyć jakieś wypromieniowanie milionów cząstek ?????? Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
p3dzi0r Opublikowano 18 Lutego 2008 Zgłoś Opublikowano 18 Lutego 2008 naucz sie czytac, mu chodzilo o to ze zmiana stanu czastek przenosi sie na energie wypromieniowana z obiektu = dokladne odwzorowanie co by sie stalo gdyby cos np wybuchlo itp itd, czyli najdokladniejsza fizyka. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
costi Opublikowano 20 Lutego 2008 Zgłoś Opublikowano 20 Lutego 2008 A Ty przeczytaj post maniaka - na co Ci to w grze? A dokladnie - na co Ci taka precyzja? Nie potrzebujesz dokladnego modelu fizycznego zjawiska, wystarczy dosc luzna aproksymacja. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
p3dzi0r Opublikowano 20 Lutego 2008 Zgłoś Opublikowano 20 Lutego 2008 a gdzie ja napisalem ze musze miec to w grze ? przyczep sie do kogos innego ;] i tez naucz sie czytac Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
elf_ Opublikowano 20 Lutego 2008 Zgłoś Opublikowano 20 Lutego 2008 (edytowane) Myśląc racjonalnie to takie karty jak Ageia nie mają przyszłości. Za chwilę standardem będą cztery rdzenie i to właśnie wielordzeniowy procesor będzie liczył fizykę. Żaden producent gier nie będzie marnował czasu i pieniędzy na implementację obsługi kart pokroju physx, których to kart prawie nikt nie ma w komputerze, jeżeli nowe wielordzeniowe architektury procesorów będą ciągły fizykę aż miło. physx to taka przejściowa karta - miała liczyć to czego nie miał siły liczyć procesor. Za niedługo nie będzie takiej potrzeby . kilkurdzeniowe cpu policzą każdą cząstkę :D imo. Warto też pamiętać, że prawdopodobnie za naszego życia nie będzie architektury komputerowej będącej w stanie liczyć "idealny" model fizyczny. Zawsze model matematyczny fizyki w grach będzie ograniczony przez aktualne możliwości sprzętu. Im sprzęt bardziej zaawansowany tym bardziej dokładny i wymagający dla cpu może być model matematyczny. Czeka nas ciągłe udoskonalanie fizyki, jeżeli oczywiście programiści będą tego chcieli. A po co nam fizyka w grach ? Wg mnie jest potrzebna. Nie można jej ignorować. Im ta fizyka jest bardziej "realna" tym gra jest bardziej miodna. Może dojdziemy kiedyś do takiego etapu, że przedmioty w grze nie będą potraktowane całościowo. Dajmy na to że każdy przedmiot będzie się składał z cząsteczek, atomów..... To wszystko będą łączyć siły wiązań międzycząsteczkowych. Takie wiązania można będzie zerwać - wtedy np zamiast rozwalić całe drewniane pudło odłupiemy kilka drzazg. Strzelając w samochód będzie odpadać farba, w żyłach naszych przeciwników w grach płynąć będzie krew, będą mieli tętnice arterie, układ kostny - budynki będą się składały z cegieł, zaś każda cegła z atomów. Każda część świata gry będzie podatna na różne bodźce. Już nic nie będzie zero-jedynkowe. Wszystko będzie płynne - zależne od stanu cząsteczek w każdym elemencie świata. Budulcem świata gry będą atomy/ cząsteczki i to właśnie na poziomie atomowym/cząsteczkowym widzę przyszłość fizyki gier. Edytowane 20 Lutego 2008 przez elf_ Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
hary Opublikowano 20 Lutego 2008 Zgłoś Opublikowano 20 Lutego 2008 (edytowane) Im ta fizyka jest bardziej "realna" tym gra jest bardziej miodna.Miodne gry przestali produkować 4 lata temu, chyba że chodzi ci o miodność tylko w kwestii graficznej. Już nic nie będzie zero-jedynkowe. Wszystko będzie płynne - zależne od stanu cząsteczek w każdym elemencie świata. Budulcem świata gry będą atomy/ cząsteczki i to właśnie na poziomie atomowym/cząsteczkowym widzę przyszłość fizyki gier.Ta, "analogowe" komputery :lol: Edytowane 20 Lutego 2008 przez hary Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
p3dzi0r Opublikowano 20 Lutego 2008 Zgłoś Opublikowano 20 Lutego 2008 twoje wielordzeniowce to moze i beda kiedys szybsze, ale to w przypadku ogólnodostępnej wieloportowej pamięci o ilosci portow wiekszej niz 2. Bo inaczej to masz zaleznosci dostepu do danych co na wydajnosc przeklada sie dosyc kijowo. Z tego co pamietam to niema czegos takiego jak idealny model fizyczny bo fizyka nie pozwala na poznanie dokladnych wartosci (efekt motyla bodajze) wiec pozostaja tylko szczegolowe modele matematyczne ktore i tak w efekcie sa upraszczane. Wiec takiej super dokladnej fizyki raczej za naszego zycia nie uswiadczymy (no chyba ze komputery molekularne ;] ale to pozyjemy zobaczymy). Co do wielordzeniowcow to natura rzeczy jest taka ze oczywiscie rdzen procesora ogolnego zastosowania jako tako nadaje sie do wszystkiego, ale z natury rzeczy iz jest scisle sekwencyjny to jednostka wektorowa zje go na sniadanie pod wzgledem wydajnosci, pozatym wlasnie po to sa uklady specjalizowane aby niektore bzdety liczyc szybciej. Mam nadzieje ze nie zagmatwalem Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
djsilence Opublikowano 21 Lutego 2008 Zgłoś Opublikowano 21 Lutego 2008 (edytowane) oj będzie co liczyć tymi 4ema jądrami. Pewnie sPhysyXowane CUDA też się przydadzą. http://www.joystiq.com/2008/02/19/gdc08-ex...re-to-unreal-e/ Edytowane 21 Lutego 2008 przez djsilence Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
dymy Opublikowano 21 Lutego 2008 Zgłoś Opublikowano 21 Lutego 2008 Myśląc racjonalnie to takie karty jak Ageia nie mają przyszłości. Za chwilę standardem będą cztery rdzenie i to właśnie wielordzeniowy procesor będzie liczył fizykę. Żaden producent gier nie będzie marnował czasu i pieniędzy na implementację obsługi kart pokroju physx, których to kart prawie nikt nie ma w komputerze, jeżeli nowe wielordzeniowe architektury procesorów będą ciągły fizykę aż miło. heh i piszesz to w momencie gdy NV przejmuje technologię i stara się ją zaimplementować w swoich produktach? to są układy wyspecjalizowane w pewnych typach obliczeń więc teza z wielordzeniowym CPU jest mało adekwatna. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
nrl Opublikowano 21 Lutego 2008 Zgłoś Opublikowano 21 Lutego 2008 oj będzie co liczyć tymi 4ema jądrami. Pewnie sPhysyXowane CUDA też się przydadzą. http://www.joystiq.com/2008/02/19/gdc08-ex...re-to-unreal-e/ :wink: Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...