bbc20000 Opublikowano 29 Sierpnia 2003 Zgłoś Opublikowano 29 Sierpnia 2003 Na stronie Beyond3D.com znalazlem ciekawy artykul ktory porownuje najnowsze karty ATI i NVIDIA. Testy sa przeprowadzone na na podstawie gry Tomb Raider: Angel of Darkness . Co to oznacza to jest ze NV bedzie miala slabe wyniki w grach takich jak Doom3 i HL2 ktore beda uzywac PS 2.0. Dlatego tez jesli zamierzasz swoje oszczednosci wydac na nowa karte graficzna to powinienes sie 2x zastanowic zanim kupisz Nvidia poniewaz moze sie okazac ze bedziesz bardzo nie zadowolony z zakupu. Jeden z przykladowych testow z gry tutaj jest link do pelnego arykulu http://www.beyond3d.com/misc/traod_dx9perf...f/index.php?p=1 Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Kaeres Opublikowano 29 Sierpnia 2003 Zgłoś Opublikowano 29 Sierpnia 2003 Czasami nie nalezy sie tak podniecac i spojrzec troche na forum. Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
przeciwnik Opublikowano 29 Sierpnia 2003 Zgłoś Opublikowano 29 Sierpnia 2003 pewnie za kilka dni bedzie post o tym że w jakiejś x grze Ati sobie nie radzi :-) tym wszystkim którzy zastanawiają się nad kupnem Grafiki proponuje konsole. Tomb Raider: Angel of Darkness nie jest wart nawet najsłabszej TNT2, a co dopiero FX. Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
bbc20000 Opublikowano 29 Sierpnia 2003 Zgłoś Opublikowano 29 Sierpnia 2003 gra nie jest moze ciekawa ale pokazuje jak cienka jest Nvidia w DX9.0. Zreszta od dawna o tym pisza teraz to poprostu widac. Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Marasek Opublikowano 29 Sierpnia 2003 Zgłoś Opublikowano 29 Sierpnia 2003 no i podobna sytuacja w przypadku HL2 (ale o tym już było) Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
berkut Opublikowano 29 Sierpnia 2003 Zgłoś Opublikowano 29 Sierpnia 2003 A nvidia sie jak zwykle wytlumaczy ze trzeba do ich kart optymalizowac kod :| gdyby ati robilo grafy o takim pcb jak fx'y 5800 : Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Hajmon3 Opublikowano 30 Sierpnia 2003 Zgłoś Opublikowano 30 Sierpnia 2003 A nvidia sie jak zwykle wytlumaczy ze trzeba do ich kart optymalizowac kod :| gdyby ati robilo grafy o takim pcb jak fx'y 5800 : berkut to chyba wymiana graficzki cie czeka 8) Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
berkut Opublikowano 30 Sierpnia 2003 Zgłoś Opublikowano 30 Sierpnia 2003 Zobaczymy jak wyjdzie HL2 i D3, na ile pamietam wypowiedz Carmack'a to byla jakos tak "the radeon 9700 performs 2x better than the geforce fx when both using ARB2 however if the geforce uses the nv30 path it runs faster than the ati card" pozyjemy zobaczymy, wiadomo juz ze nie bedzie FSAA w HL2 ale mi to osobiscie wisi i powiewa bo nie uzywam tego gowna Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Hajmon3 Opublikowano 30 Sierpnia 2003 Zgłoś Opublikowano 30 Sierpnia 2003 Zobaczymy jak wyjdzie HL2 i D3, na ile pamietam wypowiedz Carmack'a to byla jakos tak "the radeon 9700 performs 2x better than the geforce fx when both using ARB2 however if the geforce uses the nv30 path it runs faster than the ati card" pozyjemy zobaczymy, wiadomo juz ze nie bedzie FSAA w HL2 ale mi to osobiscie wisi i powiewa bo nie uzywam tego gowna sprawe FSAA wyjasnili i bedzie rowniez na FX-ach Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
berkut Opublikowano 30 Sierpnia 2003 Zgłoś Opublikowano 30 Sierpnia 2003 aha, thx Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
berkut Opublikowano 30 Sierpnia 2003 Zgłoś Opublikowano 30 Sierpnia 2003 aha, thx Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Hajmon3 Opublikowano 30 Sierpnia 2003 Zgłoś Opublikowano 30 Sierpnia 2003 nie no lurde mam nowa porcje newsow z fraz.pc GeForceFX - wyniki coraz słabsze. - 14:41 Piotr Gontarczyk Wraz z udostępnieniem nowych sterowników Detonator 45.23 dla kart graficznych z układami NVIDIA, najnowsze z nich - GeForceFX - zostały pozbawione części optymalizacji, które kosztem jakości renderingu zwiększały wydajność dla zapewnienia im wyższości nad ich konkurentami spod znaku ATI. Według nieoficjalnych źródeł, systematycznie usuwane optymalizacje z Detonatorów powinny spowodować spadki nawet o ponad 1500 (do 2000) punktów w 3DMark"2001 SE, około 15% w grach Quake III Arena, Jedi Knight 2 i niektórych innych na engine Quake III. Optymalizacje znaleziono ponoć nawet dla i tak słabo działającej na GeForceFX gry Tomb Raider : Angel od Darkness. Prawie 20% spadek wydajności jest szacowany dla gry Dark Age of Camelot (Detonatory 45.23 już spowodowały nieznaczny, bo około 10% spadek wydajności przy minimalnym polepszeniu jakości renderingu). Oberwało się już także grze Warcraft III - Frozen Throne, która wygląda na Detonatorach 45.23 lepiej a działa zauważalnie wolniej. W naszych testach 3DMark 2001 SE na karcie z układem GeForceFX 5900, zmiana Detonatorów 44.03 na 45.23 w teście Nature także spowodowała spadek wydajności. Ze 130fps do 98fps. Nasuwa się więc pytanie. Czy kiedykolwiek poznamy realną wydajność układów GeForceFX w porównaniu fair-play z układami konkurencji ? Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Jelen Opublikowano 30 Sierpnia 2003 Zgłoś Opublikowano 30 Sierpnia 2003 Nvidia suxx... od pacztaku byly sluchy ze efekty px2.0 i te inby innowacje techniczne sa udawane... Poprostu pod 3dmarka jest zoptymalizowana a w grach FXy dostaja ostro w dupe a przeciez w 3dmarki sie nie gra... Tak wiec nie ma sie co oszukiwac ,Nvidia śmierdzi Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
FumFel_20 Opublikowano 30 Sierpnia 2003 Zgłoś Opublikowano 30 Sierpnia 2003 hmmm ciesze sie ze pierwszy raz kupiłem ATI Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
KaT Opublikowano 30 Sierpnia 2003 Zgłoś Opublikowano 30 Sierpnia 2003 pozyjemy zobaczymy, wiadomo juz ze nie bedzie FSAA w HL2 ale mi to osobiscie wisi i powiewa bo nie uzywam tego gowna Czemuz to? Ja wole grac w 640x480 z AAx4 niz w 1024x768 bez AA. Kanty i zabki to najwieksze odstepstwo wspolczesnej grafiki od realizmu. Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Hipo Opublikowano 30 Sierpnia 2003 Zgłoś Opublikowano 30 Sierpnia 2003 Niestety sprawa wygląda tak że 99% użytkowników troszkę bardziej świadomych opiera swoje tezy o wydajności na podstawie popularnego 3D Marka a później narzekają że im cośw gierce skacze. Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
bbc20000 Opublikowano 30 Sierpnia 2003 Zgłoś Opublikowano 30 Sierpnia 2003 Nvidia do tej pory nie byla taka zla tyle tylko ze byla extremalnie droga. ATI jest teraz gora. W zyciu bym nie kupil FX. Jak by mi ktos ta karte dal za darmo to bym ja sprzedal na EBAY i kupil ATI :D Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
drprzem Opublikowano 30 Sierpnia 2003 Zgłoś Opublikowano 30 Sierpnia 2003 Nvidia do tej pory nie byla taka zla tyle tylko ze byla extremalnie droga. ATI jest teraz gora. W zyciu bym nie kupil FX. Jak by mi ktos ta karte dal za darmo to bym ja sprzedal na EBAY i kupil ATI :D a ile masz w 3DMARK 03 na tym RADEONIE ? Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
phobosq Opublikowano 30 Sierpnia 2003 Zgłoś Opublikowano 30 Sierpnia 2003 oj pewnie ma z 6000 jak nie lepiej :) tez sie ciesze z mojego radka! Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Eclipse Opublikowano 30 Sierpnia 2003 Zgłoś Opublikowano 30 Sierpnia 2003 A kolego drprzem ile ty masz na tym swoim swietnym fx i na jakich sterach bo nvidia nie nadazy wydawac optymalizowanych sterownikow. Pamietacie jak sie pokazal 3dmark 2003 wszyscy go jechali a nvidia to juz malo sie nie posikala a teraz czas weryfikuje to co inzynierowie z pod znaku nv zdzialali co mi z silnika nfiniti czy jak to sie pisze skoro podstawowe funkcje ps i vs z dx9 sa obslugiwane na takim poziomie ze szkoda gadac Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Puffy Opublikowano 30 Sierpnia 2003 Zgłoś Opublikowano 30 Sierpnia 2003 ALe wy jesteście dziwni po co porównywać FX5200 do ATI9500 jak różnią sie cenami i to cholernie.FX ma obsługę Directx 9.0 w swoim przedziale cenowym nie ma sobie równej karty gdyż Ati niestety tu nic nie ma z Directx 9.0 wiec po co porównywać malucha z silnikiem ferrari do Mercedesa gdzie sie płaci niewiadomo za co fakt jest szyby radek ale o ile droższy napewno cena/jakość FX wygrywa :!: :!: :!: :!: :twisted: Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
daFojtek Opublikowano 30 Sierpnia 2003 Zgłoś Opublikowano 30 Sierpnia 2003 Puffy a kto tu mowil cokolwiek o FX5200??? mi sie wydaje ze rozmowa jest o FX5900 i r 9800 Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
LPC Opublikowano 30 Sierpnia 2003 Zgłoś Opublikowano 30 Sierpnia 2003 Nvidia do tej pory nie byla taka zla tyle tylko ze byla extremalnie droga. ATI jest teraz gora. W zyciu bym nie kupil FX. Jak by mi ktos ta karte dal za darmo to bym ja sprzedal na EBAY i kupil ATI :D a ile masz w 3DMARK 03 na tym RADEONIE ? fakt zajzec w podpis trudna sprawa :lol: Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Puffy Opublikowano 30 Sierpnia 2003 Zgłoś Opublikowano 30 Sierpnia 2003 Puffy a kto tu mowil cokolwiek o FX5200??? mi sie wydaje ze rozmowa jest o FX5900 i r 9800 na zdjęciach u góry masz też wykres FX5200U Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Reaper Opublikowano 31 Sierpnia 2003 Zgłoś Opublikowano 31 Sierpnia 2003 ale 5200U a nie 5200nonU... Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Junior Opublikowano 31 Sierpnia 2003 Zgłoś Opublikowano 31 Sierpnia 2003 Panowie po prostu Nvidia dała ciał z FX-em. Najpierw pojawił sie radek z obsługą DX9. Okazał sie że karta jest WoW. Nvidia musiała szybko zareagować i po dłuszym czasie wypuściła FX-a 5800 ultra ale karta była [ciach!] no to wypuszczono 5900 ultra co miało być naj na rynku . Teraz widzimy testy bez optymalizacji i wszystko jesne. Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...