Skocz do zawartości

Rekomendowane odpowiedzi

Przejżałem jak dotąd wszystkie materiały i mam nadzieję, że te nowe jednostki Pixel/Vertex Shader 3.0 rzeczywiście sie przydadzą. Ale to już na pewno jest wiadome, że NVIDIA technologicznie jest przed ATI, teraz tylko jedno pytanie- jak z wydajnością R420 będzie :)

 

PS- dodatkowe punkciki w 3D Mark 2003 Geforce 6800 uzyskał dzięki dodatkowym 16 wirtualnym potokom w dużym skrócie- poprzez zamianę ich z jednostek Pixel/Vertex shader, tak przynajmniej zrozumiałem z różnych info. Ale dzieje się to tylko poniżej specyfikacji Direct 8.0, czyli wszędzie tam, gdzie nie ma w uzyciu Pixel/Vertex Shader-ów czyli np. 1 test z samolotami w 3Dm2003

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

no jest  Na p4 3,4Ghz ,XP i 6800.. Cholerka. Moze dali w lape? No bo kunia w grach tak slabo a tu 14000? lOl

CHECK widziałes wogule te testy z grami chyba nie. Zobacz ze tam 6800 ma praktycznie zawsze włączone AA 4x i AF 16 a konkurencja bez tych bajerów a i tak w większosci testów jest lepiej o te kilka fps więc nie dolewaj bo nie zjemy :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A mi sie cos widzi, ze nVidia znow popelnila blad, a ATI wykazalo sie sprytem...

Mianowicie po pierwszych wynikach wynika, ze 6800 ma znowu doskonala wydajnosc w starych aplikacjach <= dx8.1 (dokladnie jak fx-y), a z dx9.0 jest na poziomie radka9800xt :( I co z tego, ze ma shadery 3.0, jak jeszcze praktycznie nie ma gier wykorzystujacych 2.0... IMO zdecydowanie madrzejsza decyzja jest zrobienie super-szybkiej karty dx9.0 bez jakiejkolwiek implementacji shaderow 3.0. Wiec obawiam sie, ze ATI ze swoja r420 znow bedzie gora...

 

Oczywiscie moje 'wywody' sa oparte na bardzo mglistych jeszcze podstawach - zweryfikuje te hipoteze za kilka dni, jak juz wszystkie powazniejsze serwisy porobia benchmarki :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wyniki miażdżą, są po prostu nierealne.

Trzeba będzie zbierać kase na to cudo, może w następnym roku sie kupi. Ciekawe co na te wyniki ATi powie.

JohnyFX skąd ty dorwałeś te filmiki i screeny z tego UE3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A mi sie cos widzi, ze nVidia znow popelnila blad, a ATI wykazalo sie sprytem...  

Mianowicie po pierwszych wynikach wynika, ze 6800 ma znowu doskonala wydajnosc w starych aplikacjach <= dx8.1 (dokladnie jak fx-y), a z dx9.0 jest na poziomie radka9800xt  I co z tego, ze ma shadery 3.0, jak jeszcze praktycznie nie ma gier wykorzystujacych 2.0... IMO zdecydowanie madrzejsza decyzja jest zrobienie super-szybkiej karty dx9.0 bez jakiejkolwiek implementacji shaderow 3.0. Wiec obawiam sie, ze ATI ze swoja r420 znow bedzie gora...

a pixel shader 3.0 to nie jest czasem direct 9.0

poprawcie mnie jezeli sie myle

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Poprawiam Cie - shadery 3.0 to nie dx9.0... :)

shadery 3.0 ma miec dopiero dx10

 

UPDATE : He ? 9.0c ? To widac mam nieaktualne informacje... O ile pamietam, ten dx mial miec numerek 10.0. Coz, widac zmienili numeracje... :wink:

 

W takim razie : shadery 2.0 ma dx9.0b, shadery 3.0 ma miec dx9.0c

 

UPDATE 2:

Jest to duzy OT, jedna nawiazuje do linku tutaj podanego...

Popatrzcie sie tu :

http://mbnet.fi/elixir/NV40/10817474486qLM...meutS_5_9_l.jpg

http://mbnet.fi/elixir/NV40/10817474486qLM...meutS_5_8_l.jpg

Niedosc, ze 5950 ma mniej fps-ow, to jeszcze oszukuje i bryka bez shaderow 2.0... Wiem, byly o tym topiki, ale tutaj przy okazji pojawilo sie fajne porownanie - i raczej nie ma mowy o tym, ze jest tu jakis 'przekret' na niekozysc nVidii... Wiec tym bardziej interesujace sie wydaje 'objawienie' swego czasu na forum goscia z 5900xt ktoremu bryklal super-plynnie FarCry z shaderami 2.0... hmm...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wszystko pięknie i gładko wyniki fenomenalne... zakładając że prawdziwe , ale ciekawi mnie jeden fakt , ktoś powiedział że cena wyniesie w granicach 300$ zakładając koszty manipulacyjne cło , akcyza, podatek ect ect , dodajmy 150$ ... w sumie taka grafa będzie kosztować 450$ na polskim rynku

Z drugiej strony cena 5950 ultra to za model

GeForceFX 5950 Ultra Gigabyte GV-N59U256V 256MB tv & DVI (256-bit) BOX około 2100 zł. przeliczając na dolary 550$.

wiec coś mi tu nie gra dlaczego to niby nowsza karta silniejsza miała by być tańsza .. ?? :roll:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wyniki miażdżą, są po prostu nierealne.

Trzeba będzie zbierać kase na to cudo, może w następnym roku sie kupi. Ciekawe co na te wyniki ATi powie.

JohnyFX skąd ty dorwałeś te filmiki i screeny z tego UE3

 

prezentacja unreal3.0 byla dzisiaj w nocy na rozpoczetej imprezie premierowej nv40, jak dawalem link do ftp to jeszcze nie bylo tam tych filmikow, pochodzą one od towarzysza z forum beyond3d ktory je nagrał

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie no, coraz bardziej jestem przekonany, ze z tymi 3dmarkami to jeden wielki zwalek - w testach wychodzi, ze powinna byc MIN 2x szybsza od 5950 - a benchmarki w grach to ledwo nascie/dziesiat procent wiecej...

Czyzby znowu 'optymalizacje' :?: Tak samo - dlaczego w unreal tournament2004 nie ma renderowanego nieba ? Ale najdziwniejsze - dlaczego nie rusza shadermark, w ktorym wszystkie produkty nvidii dostawaly po pupie ? Oczywiscie padnei odpowiedz : niedorobione drivery. Hmmm - moze, a moze po prostu jeszcze nei umiescili optymalizacji 'per application'...

 

UPDATE : ehem, chyba sie troche pospieszylem... :P Wlasnie dorwalem inne wyniki - i hmm, calkiem niezle wygladaja... Jesli taka bedzie rzeczywista wydajnosc karty - to winszuje, winszuje... Jeszne jest zewnetrznie piekna, wiec byc moze cos wreszcie nVidia wyda, co chetnie bym kupil :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

"Nie rzucim ATI skąd nasz ród...." :wink: Karta rzeczywiście potęga, ale IMHO nie wierzę, by ATI popuściło. Po prostu zrobił się kolejny przełom jak w przypadku pojawienia się na rynku R9700Pro. W stosunku do GF4Ti4600 różnica też była miażdżąca i tak jest teraz. ATI wypuści kartę o przyblizonych parametrach i skończy sie podniecanie wynikami. Czas leci...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

obejrzyjcie sobie filmik ten co ma 12mb z prezzentacji unreal3.0 ktory jest na ftp tym co wczesniej podawalem, dopiero tam jest pokazane do czego została stworzona nowa generacja kart nvidii, wszystko jest renderowane w czasie rzeczywistym oczywiscie.

dla mnie rozstrzasanie bez konca co ma ile wydajnosci w dotychczasowych aplikacjach troche jest nnudne wole sie skupic na tym co oferuje ps3.0 i vs3.0 i wszystko co ze soba niosa(unreal3.0)

no i teraz oczywiscie jeszcze trzeba poczekac na r420(ale gdzie ps3.0? u ati?)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

hmm nie dziala ten link kaze sie logowac wiec poki co kupa -- jak niby ta nv ma miec 12 tysiecy to normalnie bez kitu poklon dla nvidi zobaczymy dokladne testy marka jak to tam ogolnie wyglada karta napewno ta jest kotem tylko czekac jak odpowie na to ati ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach




×
×
  • Dodaj nową pozycję...