Skocz do zawartości
djsilence

Physx Za Darmo Z Kartami Serii 8x

Rekomendowane odpowiedzi

NVidia zdecydowała włożyć wiele wysiłku w przełożenie silnika Agei - PhysX na C.U.D.A., dzięki czemu moc karty będzie przełożona częściowo na obliczanie fizyki.

Wiadomość ta pochodzi prosto od szefa Nvidii Jen-Hsun Huang-a, który obiecuje, iż wystarczy update sterowników aby osiągnąć zamierzony efekt.

Mimo, iż nie podano daty wypuszczenia uaktualnienia zawierającego PhysX, to możemy się spodziewać się go już niebawem, tym bardziej, że programiści Ageia pracują obecnie do Nvidii.

 

http://techreport.com/discussions.x/14147

 

Innymi słowy stało się to o czym mówili NVidia i ATI od momentu wejścia Agei na rynek. Obliczanie fizyki zaimplementowano w karcie graficznej, z tym że kosztem istnienia Firmy Ageia.

Edytowane przez djsilence

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość <account_deleted>

No i kolejna firma która wymyśliła coś konkretnego została wdeptana w glebę... NV=MS2

 

Nie ma szans, żeby GPU mógł oderwać się od gruntu na wykresie porównującym go z chipem agei - przynajmniej nie obecne generacje. Fakt że gpu może szybko liczyć wektory niewiele daje - trzeba jeszcze uwzględniać masę i materiał z którego są zbudowane obiekty, wykrywać kolizje, a wkońcu zastosować modele cząsteczkowe obiektów, itd. GPU nie może tego zrobić bez pomocy CPU i bez utraty "mocy graficznej"

 

ATI i NV przestraszyły się Agei oraz wizji utraty monopolu. NV jako bardziej kasiasta poprostu zabiła projekt, podobnie jak chipsety ULI zresztą.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No ciekawy jestem czy 1 gf8 bedzie mogl chociaz w jakims stopniu korzystac z dobrodziejstw driverow AGEIA, w co watpie...

Bo gosc sugeruje raczej, ze bedzie sie to opieralo na SLI, gdzie 1 karta bedzie zajmowac sie obliczeniami fizyki... czyli to samo co ATI mialo/ma w planie... jezeli tak, to raczej malo oplacalne rozwiazanie... juz kupno samego PhysiX-a jest bardziej oplacalne...

 

Huang thinks the integration will encourage people to spend more on graphics processing hardware, as well:

Our expectation is that this is gonna encourage people to buy even better GPUs. It might—and probably will—encourage people to buy a second GPU for their SLI slot. And for the highest-end gamer, it will encourage them to buy three GPUs. Potentially two for graphics and one for physics, or one for graphics and two for physics.

... nothing special...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość <account_deleted>

Tak, bo we wspólczesnych grach najbardziej kuleje fizyka. GPU zarówno NV jak i ATI po prostu nie nadają się do liczenia fizyki i jak na razie nie zanosi się na jakieś zmiany w tym temacie. Ageja dawała niesamowitą moc obliczeniową i mogła naprawdę namieszać na rynku. Gdyby firma się wybiła, to mogła by poważnie zagrozić obydwu monopolistom (kto wie może nawet wypuścili by z czasem własne GPU i dopiero byłaby jazda)

 

EDIT: nie wdziałeś kompa z phys-x'em -> woow, to słabo szukałeś

Edytowane przez tomazzi

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ageja dawała niesamowitą moc obliczeniową i mogła naprawdę namieszać na rynku.

AGEIA nie ageja ... poczytaj przynajmniej podsumowanie i pierdół nie pisz,

Physx to karta niewypał, więc jak gów.no może się wybić ?

 

http://www.egielda.com.pl/?str=art&id=1238-10

Edytowane przez Gość

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość <account_deleted>

AGEIA nie ageja ... poczytaj przynajmniej podsumowanie i pierdół nie pisz,

Physx to karta niewypał, więc jak gów.no może się wybić ?

Literek się czepiasz? no gratki...

Szkoda że nie umiesz czytać ze zrozumieniem, nawet artykułu który podlinkowałeś...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

GPU zarówno NV jak i ATI po prostu nie nadają się do liczenia fizyki i jak na razie nie zanosi się na jakieś zmiany w tym temacie.

bzdury panie piszecie. PPU ageia to byla zwykla programowalna jednostka wektorowa. nic nie stoi na przeszkodzie, aby podobe obliczneia robily obecene GPU swoimi zunfikowanymi jednostkami -> hint technologia CUDA nv

 

Ageja dawała niesamowitą moc obliczeniową i mogła naprawdę namieszać na rynku.

niesamoita moc, cale ok.50GFlop, obecnie GPU maja moc obliczeniowa 10x wieksza

 

Gdyby firma się wybiła, to mogła by poważnie zagrozić obydwu monopolistom (kto wie może nawet wypuścili by z czasem własne GPU i dopiero byłaby jazda)

to po prostu stracilo sens przy obecnej mocy i mozliwosciach GPU. lepiej skupic sie na SDK i wpasc pod skrzydla gigianta, niz probowac z nim walczyc. Edytowane przez Sulaco

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Widac mamy na forum wieliu "Specjalistow" znajacych doglebnie mozliwosci obecnych GPU

Panowie nic tylko zacznijcie pisac drivery :) albo inny soft pod gpu ;)

 

Z tego co czytalem tu i owdzie ,to bardzo ladnie mozna liczyc prosta fizyke w grach

za pomoca obliczen kolizji Vertex'ow a to chyba jedna z podstawowych opcji dzisiejszych GPU .

Problem jak zwykle lezy po stronie ludzkiej i problemach w dobrym oprogramowaniu

tego czegos .

 

 

Sulaco

 

Zgadzam sie z toba w 99% ;)

Edytowane przez Mario2k

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość <account_deleted>

niesamoita moc, cale ok.50GFlop, obecnie GPU maja moc obliczeniowa 10x wieksza

MIPS i FLOPS jako miara "mocy" obliczeniowej straciły sens jakieś 15 lat temu - teraz to tylko puste słowa używane przez dział marketingu (od biedy nadają się do porównywania mocy procków opartych na zbliżonej architekturze). Przykład1: swego czasu NV chwaliła się że ich GPU wykonują X razy więcej operacji zmiennoprzecinkowych niż CPU intela -> no to spróbuj policzyć na GPU ile to 2.0 + 2.0 :wink: Przykład/pytanko2: ARM10 800MHz vs np. P4 3.6GHz co jest szybsze? podpowiedź: P4 ma więcej MIPS to na pewno... :lol:

Sory ale widzę że nie ma sensu dalej dyskutować... marketing czyni C.U.D.A :lol2:

to po prostu stracilo sens przy obecnej mocy i mozliwosciach GPU. lepiej skupic sie na SDK i wpasc pod skrzydla gigianta, niz probowac z nim walczyc.

To nie sensu zabrakło, tylko cierpliwości inwstorów projektu Ageia (no i przesadzili z cenami) - tak sobie myślę...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

tomazzi

 

Jako ze chyba znasz temat , napisz wiec na czym bedzie latwiej( nie szybciej ) policzyc fizyke

CPU klasy C2D

Czy GPU klasy G92

Mnie sie wydaje ze latwiej oprogramowac fizyke na CPU ,ale jako ze jestem zielony w temacie

opieram swoj poglad na tym co mnie sie obilo o oczy w necie ;)

 

Prawda jest taka ze najwiecej ciala daja programisci , coraz to wieksza moc obliczeniowa

GPU/CPU lezy odlogiem .

 

Co do fizyki na PC

to pamietam takie stare demko z przed 8 lat chyba z czasow promowania GeForce 250 T&L

( transform & lighting )

( jeszcze wtedy nie bylo chyba specyfikacji PS i VS )

owe demko to maly pokoj w ktorym mozna bylo poruszac/rzucac przedmiotami

ktore jako tako reagowaly z otoczeniem ,

to byla chyba pierwsza prosta fizyka jaka widzialem w RealTime na PC .

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość <account_deleted>

Dopuki NV nie wrzuci do kart prawdziwego procesora fizyki łatwiej będzie liczyć na CPU, szczególnie multicore (z drobnym wspomaganiem GPU - jeśli te "cuda" wogóle doczekają się implementacji w grach). Chodzi o to, że nawet jak GPU wychwyci kolizję, to i tak CPU musi przeliczyć masę, moment pędu/obrotowy itd, żeby określić nowy tor ruchu - to jest ok 80% obliczeń - Ageia robiła to w znacznej mierze "sprzętowo" dla olbrzymiej ilości obiektów jednocześnie.

 

... poza tym jak podejrzewam NV będzie miało sporą zagrychę jak wyciągnąć dane o kolizjach z GPU - to jest klucz do rozpoczęcia zabawy, bo liczenie macierzy to pikuś.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dopuki NV nie wrzuci do kart prawdziwego procesora fizyki łatwiej będzie liczyć na CPU

przeciez napisalem wyraznie, czym byl PPU ageia - jednostka wektorowa z kontorlerem pamieci, w uproszeniu. PPU powstal kiedy nikt nie myslal o podobnych jednostkach w GPU, kiedy takie sie pojawily brniecie w osobny uklad zupelnie stracilo sens. wczytaj sie troche w kwestie obliczen na poziomie obecnych GPU (np. CUDA, Gelato itp) bo widze, ze zatrzymales sie chyba na poprzedniej ich generacji.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość <account_deleted>

przeciez napisalem wyraznie, czym byl PPU ageia - jednostka wektorowa z kontorlerem pamieci, w uproszeniu.

No w bardzo dużym uproszczeniu - chyba jednak nie jarzysz na czym polega różnica pomiędzy dedykowanym HW a softem wspomaganym przez HW, wektor to wektor tak? ;)

PPU powstal kiedy nikt nie myslal o podobnych jednostkach w GPU, kiedy takie sie pojawily brniecie w osobny uklad zupelnie stracilo sens. wczytaj sie troche w kwestie obliczen na poziomie obecnych GPU (np. CUDA, Gelato itp)

To prawda, ale g92 też nie jest gotowy do liczenia fizyki, choć pewnie następne generacje już będą...

Tak się składa, że mam pojęcie na temat Geleto, o Cudach jeaszcze się uczę - powiedz mi gdzie wyczaiłeś w dokumentacji Cudów albo Gelato słowo na temat liczenia fizyki, bezpośrednio przez GPU? Bo jak narazie oba te systemy służą do wspomagania renderingu non-real time i ew. driverów, jeśli starczy mocy obliczeniowej ;) żeby tego użyć do liczenia fizyki/matematyki ogólnej, trzeba najpierw odpowiednio przekształcać dane (przed i po operacji na GPU), o wykrywaniu kolizji obiektów w real time nie ma mowy - procek musi to zrobić.

 

Zresztą, co tu się kłócić - NV w końcu dopnie swego, jednak imo na razie nie ma co podniecać się marketingowym bełkotem.

Edytowane przez tomazzi

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tak się składa, że mam pojęcie na temat Geleto, o Cudach jeaszcze się uczę - powiedz mi gdzie wyczaiłeś w dokumentacji Cudów albo Gelato słowo na temat liczenia fizyki, bezpośrednio przez GPU?

chodzilo o przyklad wykorzystnia GPU, a fizyka i CUDA? mysle, ze dynamika molekularna jest dosc "fizyczna", przynajmniej tak mi sie wydaje. EOT

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość <account_deleted>

:blink: A... to sory myślałem, że chodzi o akcelerator fizyki w grach real time... :lol:

Myślisz, że współczesna fizyka molekularna nadal pozostała na etapie kolizji kuleczek elektronów krążących po idealnie okrągłych orbitach? :lol2: W takim razie dało by się to jakoś przełożyć np. na kolizję deski ze ścianą... Niestety to jest zupełnie co innego. Teoretycznie dowolną funkcję można przekształcić w macierz i policzyć na GPU, tyle że tylko niektóre funkcje dadzą zysk w postaci przyspieszenia obliczeń, tym bardziej że dochodzi czas transferu GPU<->CPU (CPU musi najpierw wykonać konwersję formatu danych, więc przy dynamice gier typu FPS jest to najwolniejszy element). Zamiast czytać reklamy, poczytaj sobie SDK.

 

EDIT: Jak to zwykle bywa w dziale nowości nie da się potwierdzić Twojej ani mojej "racji", bo pierwsze gry wykorzystujące te "nowości" ukażą się na długo po tym jak zeszrotujesz swoje 88 SLI ;) EOT

Edytowane przez tomazzi

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

a od kiedy to liczysz dokladne funkcje, w przypadku bzdetow typu grafika itp uzywa sie metod optymalizacji, a w szczegolnosci aproksymacji , czyli uzywa sie funkcji znacznie mniej zloznych dajacych zblizone wyniki. Innymi slowy chcac liczyc dokladnie zarzniesz ta swoja fizykokarte ;]

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość <account_deleted>

Masz 100% racji :D Tylko że co innego jest przeliczyć np. zmianę stanów energetycznych 100mln cząstek na energię wypromieniowaną z obiektu, a co innego w którą stronę poleci wirująca deska trafiona w locie pociskiem.

 

... a miał być eot... :rolleyes:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Masz 100% racji Tylko że co innego jest przeliczyć np. zmianę stanów energetycznych 100mln cząstek na energię wypromieniowaną z obiektu, a co innego w którą stronę poleci wirująca deska trafiona w locie pociskiem.

 

... a miał być eot...

A po co ci w głupih grach liczyć jakieś wypromieniowanie milionów cząstek ??????

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

naucz sie czytac, mu chodzilo o to ze zmiana stanu czastek przenosi sie na energie wypromieniowana z obiektu = dokladne odwzorowanie co by sie stalo gdyby cos np wybuchlo itp itd, czyli najdokladniejsza fizyka.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Myśląc racjonalnie to takie karty jak Ageia nie mają przyszłości.

 

Za chwilę standardem będą cztery rdzenie i to właśnie wielordzeniowy procesor będzie liczył fizykę.

 

Żaden producent gier nie będzie marnował czasu i pieniędzy na implementację obsługi kart pokroju physx, których to kart prawie nikt nie ma w komputerze, jeżeli nowe wielordzeniowe architektury procesorów będą ciągły fizykę aż miło.

 

physx to taka przejściowa karta - miała liczyć to czego nie miał siły liczyć procesor. Za niedługo nie będzie takiej potrzeby . kilkurdzeniowe cpu policzą każdą cząstkę :D imo.

 

 

Warto też pamiętać, że prawdopodobnie za naszego życia nie będzie architektury komputerowej będącej w stanie liczyć "idealny" model fizyczny. Zawsze model matematyczny fizyki w grach będzie ograniczony przez aktualne możliwości sprzętu. Im sprzęt bardziej zaawansowany tym bardziej dokładny i wymagający dla cpu może być model matematyczny. Czeka nas ciągłe udoskonalanie fizyki, jeżeli oczywiście programiści będą tego chcieli.

 

A po co nam fizyka w grach ?

Wg mnie jest potrzebna. Nie można jej ignorować. Im ta fizyka jest bardziej "realna" tym gra jest bardziej miodna.

 

Może dojdziemy kiedyś do takiego etapu, że przedmioty w grze nie będą potraktowane całościowo. Dajmy na to że każdy przedmiot będzie się składał z cząsteczek, atomów..... To wszystko będą łączyć siły wiązań międzycząsteczkowych. Takie wiązania można będzie zerwać - wtedy np zamiast rozwalić całe drewniane pudło odłupiemy kilka drzazg. Strzelając w samochód będzie odpadać farba, w żyłach naszych przeciwników w grach płynąć będzie krew, będą mieli tętnice arterie, układ kostny - budynki będą się składały z cegieł, zaś każda cegła z atomów. Każda część świata gry będzie podatna na różne bodźce. Już nic nie będzie zero-jedynkowe. Wszystko będzie płynne - zależne od stanu cząsteczek w każdym elemencie świata. Budulcem świata gry będą atomy/ cząsteczki i to właśnie na poziomie atomowym/cząsteczkowym widzę przyszłość fizyki gier.

Edytowane przez elf_

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Im ta fizyka jest bardziej "realna" tym gra jest bardziej miodna.

Miodne gry przestali produkować 4 lata temu, chyba że chodzi ci o miodność tylko w kwestii graficznej.

 

Już nic nie będzie zero-jedynkowe. Wszystko będzie płynne - zależne od stanu cząsteczek w każdym elemencie świata. Budulcem świata gry będą atomy/ cząsteczki i to właśnie na poziomie atomowym/cząsteczkowym widzę przyszłość fizyki gier.

Ta, "analogowe" komputery :lol: Edytowane przez hary

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

twoje wielordzeniowce to moze i beda kiedys szybsze, ale to w przypadku ogólnodostępnej wieloportowej pamięci o ilosci portow wiekszej niz 2. Bo inaczej to masz zaleznosci dostepu do danych co na wydajnosc przeklada sie dosyc kijowo. Z tego co pamietam to niema czegos takiego jak idealny model fizyczny bo fizyka nie pozwala na poznanie dokladnych wartosci (efekt motyla bodajze) wiec pozostaja tylko szczegolowe modele matematyczne ktore i tak w efekcie sa upraszczane. Wiec takiej super dokladnej fizyki raczej za naszego zycia nie uswiadczymy (no chyba ze komputery molekularne ;] ale to pozyjemy zobaczymy). Co do wielordzeniowcow to natura rzeczy jest taka ze oczywiscie rdzen procesora ogolnego zastosowania jako tako nadaje sie do wszystkiego, ale z natury rzeczy iz jest scisle sekwencyjny to jednostka wektorowa zje go na sniadanie pod wzgledem wydajnosci, pozatym wlasnie po to sa uklady specjalizowane aby niektore bzdety liczyc szybciej. Mam nadzieje ze nie zagmatwalem

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Myśląc racjonalnie to takie karty jak Ageia nie mają przyszłości.

 

Za chwilę standardem będą cztery rdzenie i to właśnie wielordzeniowy procesor będzie liczył fizykę.

 

Żaden producent gier nie będzie marnował czasu i pieniędzy na implementację obsługi kart pokroju physx, których to kart prawie nikt nie ma w komputerze, jeżeli nowe wielordzeniowe architektury procesorów będą ciągły fizykę aż miło.

heh i piszesz to w momencie gdy NV przejmuje technologię i stara się ją zaimplementować w swoich produktach? to są układy wyspecjalizowane w pewnych typach obliczeń więc teza z wielordzeniowym CPU jest mało adekwatna.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

Ładowanie


×
×
  • Dodaj nową pozycję...