Skocz do zawartości
Slayer

NV31-34, czyli FX total MX :-D

Rekomendowane odpowiedzi

Zacytuję tutaj news z www.twojepc.pl

Inquirer twierdzi, że przetestował karty wykorzystujące najnowsze układy nVidii, NV31 i NV34. Układy, nazwane odpowiednio GeForce FX 5600 i GeForce FX 5200, mają być sprzedawane w segmencie kart średniej wydajności. Okazuje się jednak, że ta wydajność jest poniżej średniej. Testy przeprowadzono w 3DMark 2003, na komputerze z procesorem Athlon XP 2700+ i 512MB RAM. Wynik Radeona 9700 PRO na takim sprzęcie wynosi ok. 4600 punktów. Wynik NV31 to 2389 punktów, natomiast NV34 nie osiągnęła nawet tysiąca. Jej wynik to 879 punktów. Wyjaśniałoby to wyjątkową niechęć nVidii do produktu firmy FutureMark. Bezpośrednią konkurencją dla tych kart będą stanowić produkty ATi: RV280, znany jako Radeon 9200 oraz RV350, czyli Radeon 9600.

 

:lol:

 

PS- weźcie poprawkę na wyniki jako, że Detonatory 42.xx obniżają jakość obrazu i po prostu wycinają ze sceny częśc efektów graficznych- szukajcie na www.frazpc.pl.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

UT 2003 też nie jest obiektywny, bo w jaki sposób Geforce 3 jest szybszy od R 8500, jak ten 2 ma o 1 Vertex Shader więcej, nie mówiąc o samej konstrukcjii silnika T and L ( o 2/3 bardziej wydajna) itp.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

UT 2003 też nie jest obiektywny, bo w jaki sposób Geforce 3 jest szybszy od R 8500, jak ten 2 ma o 1 Vertex Shader więcej, nie mówiąc o samej konstrukcjii silnika T and L ( o 2/3 bardziej wydajna) itp.

wszystko jest wzgledne.

 

a napewno lepszym wyznacznikiem szybkosci sa gry, nie jakies benche.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

UT 2003 też nie jest obiektywny, bo w jaki sposób Geforce 3 jest szybszy od R 8500, jak ten 2 ma o 1 Vertex Shader więcej, nie mówiąc o samej konstrukcjii silnika T and L ( o 2/3 bardziej wydajna) itp.

GF3 jest w wielu testach lepszy od R8500.Chyba tylko w 3D marku R8500 jest wydajniejszy od Ti500 IMHO to jest obecnie najbardziej obiektywny benchmark!

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tak na prawde to nie ma obiektywnych testów przecież gry jedne lepiej chodzą na jedynch kartach a inne na innych. Przecież Unreal było robiony pod Voodoo i jak by na jego podstawi porównywać karty to Voodoo było by królem. Według mnie test kart graficznych powinien składać się z kilku testów wtedy był by bardziej wiarygodny. A co do tego że stery 42.xx pogarszają jakość to przypomina mi się sprawa z SiS Xaber tam było to samo jedne stery oferowały lepszą jakośc a drugie wydajność.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

NO coz, moge powiedziec jedno ze do 3dmarka 2001 se to był obiektywny tester, ale gdy taka karta jak Fx 5600 osiaga niby połowe wydajnosc co radek 9700pro to juz nie jest obiektywne, zwazywszy na to ze w innych testach to FX górował, z reszta nVidia twierdzi ze futuremark jrest w zmowie ze tak to ujme z ATi, no i ja sie z tym zgadzam, bo to ze takie chipsety NV31 maja 1/2 wydajnosci w 3dmarku 2003 tego co 9700 pro to przerasta ludzkie pojecei, to ja na miom Ti4200 mam wiecej nix to NV34, a to juz dziwne jesli wezmiemy pod uwage, ze nowe FX sa bardzo udoskonalone i wydajniejsze od ti4200, takze futuremakr z ATi cos kreca za plecami nVidii.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

no jasne posiadasz Gf ktory dostaje w .... w 3dmarku wiec odrazu mowisz o zmowie :wink: tak chcialbym przypomniec to nie wina ATI czy tez Futura ze nvidia zawsze okraja w taki sposob swoje karty przeznaczone na niezy segment. Przeciez roznica pomiedzy 4Ti a 4MX byla rownie wielka. Taka jest kolejnosc ze karty nie obslugujace efektow zawartych w benchmarkach uzyskuja duzo gorsze wyniki. A 'teorie spisku' zachowaj dla siebie. Nikt nie musi dzialac przeciw nvidii bo ta firma sama sie wykonczy :wink: :twisted: :P

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Taa futurek w zmowie z ati :) a pamietacie jak nvidia oszukiwala na tym tescie :) pewnie juz nikt nie pamieta dlaczego to 3dmark2001 stal sie wlasnie nieobiektywny bo zawyzal nvidii wyniki :) teraz stalo sie odwrotnie ze wzglednu na dx9.0 i wieksze zastosowanie PS w 3dmarku2003 i dlatego taka roznica.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

mowiac raczej nie mailem na mysli ze nei glownie, bo napewno traktuja ten benchmark powaznie ( a przynajmniej daltego ze userzy go tak traktuja) i staraja sie by jednak sterowniki sie na nim nie potknely.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

co by niemówić ale z potwierdzonych źródeł wiadomo ze gf fx to jest procesor opracowany przez firme 3dfx i giga pixel jakieś 2-3 lata temu minimalnie zmodyfikowany przez nvidię niewiem jak to dokładnie wyglada ale skoro to taki staroć to co sie dziwić ze brakuje mu pary obsluguje dozu standardów ale moc lepieji niemówić :(

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ehh nvidia zawsze kombinowała..... poprostu przereklamowała swojego fx'a a fx "mx" to normalka ;P pogódźcie sie.... nadeszła era radeonów to już nie są czasy Ge Forca I i Rivy TNT II ! :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To nie jest konstrukcja 3DFX-a. Ostatnim jako tako pracującym układem był Rampage, a te był z kolejii odpowiednikiem Geforce 3, ale znacznie słabszym. 2 prototyp- Mozaic nigdy nie wyszedł poza stadium projektowania. Było jeszcze pare innych kart 3DFX-a......ale to już chistoria.

Co do NV34- ten wygląda na szybszego od GF4TI 4600 ( specyfikacja)......ale do takiego Radeon 9500 Pro nie podchodzi.

O NV 31 wypowiem się tak- Doczepcie do Geforce 4MX Vertex Shader 2.0+ , trochę podkręcić......i mamy FX-a :P Bo co to jest na dzisiaj 2 potoki i 2 TMU :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Co do tego że FX to jest projekt 3DFX hm możliwe że spece z niewidy coś sobie zaporzyczyli ale na pewno to nie jet całkowicie procek 3DFX a co wydajności FX to trzeba poczekać na stery 5X.xx a potem wyrzsze to się okaże co to jest warte.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

jak tak dalej pójdzie to historia zatoczy koło i ati wykupi Nvidie i nikt niezostanie na placu boju :D

A to byłoby dosyć dziwne bo ja pamiętam ati 2 lata temu jako wypierda w porównaiu do Nvidii :)

3DFX też był gigantem i zostałleżeć kiedy to **** Nvidia zrobiła GeForca :(

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

jak tak dalej pójdzie to historia zatoczy koło i ati wykupi Nvidie i nikt niezostanie na placu boju :D 

:(

A to by było bardzo źle ale chyba bardzo to mało powiedziane. Ale w sumie to chyba nie grozi bo SiS nie śpi a dawne S3 też coś tam działa.

Ciekawe co wyjdzie z tego Xaber II i Delta Chrome.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach



×
×
  • Dodaj nową pozycję...