Skocz do zawartości
rumianko

x800 czy gf6800 ktora kupic?

Rekomendowane odpowiedzi

Jednakże fanatycy ATI, szczególnie na tym forum wymyślają coraz to nowsze śmieszniejsze argumenty by nie kupować kart NVIDII

Hmmm... dlatego w sytuacji obecnej jako fan ATi (dlaczego fan ? bo 1000zł poszło się ... kopulować po kupieniu 4Ti - a mogłem 9500Pro...

i 5900XT a mogłem 9800SE@Pro z warancją... - doradzali mi sami "experci" z okularami "made by nvidia" ... i tylko dlatego ...)

Także to nie jest wybór poglądowy "typu psełdokibic" :) ze bede lał każdego kto ma GF, tylko doświadczenie życiowe...

Dlatego nVidii w tym roku nie kupie, ATi równierz bo na tle nVidii wypadł technologicznie "ubogo" ? A na razie zdecyduje sie na 9800Pro które złą kartą nie jest... ( a przynajmniej giga ramu kupi, które po ostatnich wydarzeniach staje się koniecznością) nie zależy mi faktycznie na 1600x1200 z FSAAx6 !!

Bo na 1024, idzie spokojnie luksosow pograć :)

 

GF 6800 Ultra bije w większości testów X800 XT PE

No nie przesadzaj... jeszcze + AA i AF to 6800U zostaje hen w tyle...

 

ogromnym błędem ATI było wprowadzenie X600, który jest starym R9600 Pro/XT, a jest w tej samej cenie co nowy 6600GT, który po testach (chociażby z PCLab.pl) powala nawet samego R9800XT we wszystkich testach.

X600 wydawany był z myślą o użytkownikach PCI-E, bo mniemam, ze nie każdy bedzie potrzebował pod PCI-E tak mocnej karty jak X800, dlatego muszą być alternatywy...

 

 

W Doom 3 nawet o 40-60 fpsów!!!

Nic dziwnego - u ATi OpenGL kuleje, natomiast w D3D jest górą :)

Także nie ma się co dziwić...

Nie, decyzję o zakupie karty sam podejmuję i czytam testy kart, a nie słucham opinii ludzi, bo często są mylne.

 

ATI ma przewagę w D3D? No nie wiem, zobacz, że większość serwisów testuje gry w D3D, w Far Cry GF 6800 Ultra jest szybszy, a przy SM3.0 czasem o 25%.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Aha, X600XT jest kartą pod PCIe i 6600 GT jest pod PCIe i są w tym samym przedziale cenowym, zatem czemu mamy ich nie porównywać? Ta druga jest znacznie szybsza, a X600 to według mnie kolejny krok do tyłu jakim był 9200SE czy 9600SE.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jednakże fanatycy ATI, szczególnie na tym forum wymyślają coraz to nowsze śmieszniejsze argumenty by nie kupować kart NVIDII

Hmmm... dlatego w sytuacji obecnej jako fan ATi (dlaczego fan ? bo 1000zł poszło się ... kopulować po kupieniu 4Ti - a mogłem 9500Pro...

i 5900XT a mogłem 9800SE@Pro z warancją...

- doradzali mi sami "experci" z okularami "made by nvidia" ... i tylko dlatego ...)

Także to nie jest wybór poglądowy "typu psełdokibic" :) ze bede lał każdego kto ma GF, tylko doświadczenie życiowe...

 

tobie natomiast nalezy sie nagroda darwina . . .

gosc kupuje karte w danym momecie uwazana za gorsza bo gada z samymi fanatykami a w momecie gdy sytuacja obraca sie o 180 stopni psioczy na akurat ta lepsza . . .

godne pozalowania . . .

 

PS. GRATULUJE TRAFNYCH WYBORÓW :twisted:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ATI ma przewagę w D3D? No nie wiem, zobacz, że większość serwisów testuje gry w D3D, w Far Cry GF 6800 Ultra jest szybszy, a przy SM3.0 czasem o 25%.

He? W zdecydowanej wiekszosci przypadkow to wlasnie X800XT zjada GF6800U. No chyba ze porownujesz tryb 800x600 noAA/noAF. Wtedy tak. Bez AA i AF GF rulez.

Kolega tez zapomnial ze SM3.0 jak narazie nie ma w FC. A jesli juz uruchamiac te SM3.0 to moze tez i SM2.0b dla wyrownania?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

tobie natomiast nalezy sie nagroda darwina . . .  

gosc kupuje karte w danym momecie uwazana za gorsza bo gada z samymi fanatykami a w momecie gdy sytuacja obraca sie o 180 stopni psioczy na akurat ta lepsza . . .  

godne pozalowania . . .  

 

PS. GRATULUJE TRAFNYCH WYBORÓW :twisted:

4Ti (końcówka roku 2002) brałem jeszcze wtedy gry o kompach miałem takie pojęcie, że "cokolwiek kupie, bedzie lepsze niż GF2MX..."

Wtedy uważałem ze 4MX to szczyt...

 

(Czyli załóżmy ze taki quam - z roku 2002 zadaje na forum pytanie co wybrać to czy to... bo zna sie na tym jak na chodowli jedwabników a pojęcie "ilość potoków" kojarzy mu się z górskimi strumykami...)

 

Także wybacz mi, ze nie urodziłem się geniuszem wiedzącym ze w 2002r bede zmieniał grafe i juz od kołyski musze zakładać tematy na forum odnośnie nVidia vs. ATi... bo po twojej wypowiedzi letrev sgerujesz chyba, ze nigdy nie byłeś "lamerem" sprzętowym i od urodzenia znałes się na rzeczy... bo ja dopiero po kupnie 5900XT i zagraniu w FarCry tak ostro zainteresowałem sie rynkiem kart graficznych...

 

A to ze kupiłem 5900XT to właśnie dlatego że kierowałem się "testami" z różnych stron... i ludzie tak ją polecali... a też teraz zmienili zdanie (o 180 stopni - chociarz dalej można znaleźć osoby uważające, że 5900XT jest lepszy od 9800Pro...) po wyjściu FarCry...

 

w Far Cry GF 6800 Ultra jest szybszy, a przy SM3.0 czasem o 25%.

Przyszła mi teraz całkiem rewolucyjna myśl... czyżby ów silnik CryTeca ktory miał prezentować możliwości GF... dotyczył własnie serii 6800 !? anie FX ?? - w takim razie po co FX... może musiała być alternatywa ATi... do 9200,9600,9800 ... no no musze nad tym pomyśleć ...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ponadto, pierwsza wersja gry, czyli 1.0 NIE ZAWIERAŁA obsługi kart z serii NV40. Dopiero patch 1.1 wprowadził obsługę i poprawił wydajność shaderów na kartach FX - to tak poza nawiasem.

Poprawił na FXach ?? - Wybacz ale jakoś tego u siebie 'nie' zauważyłem przechodząc gre na FX5900XT ...

 

Zresztą UltraShadow II jak wiesz może być wykorzystane w Doom 3, a to ciekawa technologia.

3Dc wg. mnie jest ciekawsza...

 

ATI ma przewagę w D3D? No nie wiem, zobacz, że większość serwisów testuje gry w D3D, w Far Cry GF 6800 Ultra jest szybszy, a przy SM3.0 czasem o 25%

W jednaj grze... na dodatek po patczu... którego wycofano... czyli oficjalnie "nie ma" ?

 

Nie, decyzję o zakupie karty sam podejmuję i czytam testy kart, a nie słucham opinii ludzi, bo często są mylne.

Ja na tej zasadzie w czerwcu wybrałem 5900XT zamiast 9800Pro...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

quam nie wiem cos ty czytal ze 5900XT wypadalo lepiej niz 9800pro . . .

a tak obiektywnie mowiac to jak odpowiednio zmodujesz odpowiednie 5900XT (np.gainwarda) to far cry nie ma prawa nawet sie zajaknac w max details. . . ( o ile masz 1GB ramu bo jak masz mniej to doczytuje z HDD ale to nie wina grafy )

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wiecie co mnie rozwala jak to wszystko czytam ;) To, ze zanim wyszedl GF 6800 kazdy sie smial ze ma on PS3.0 i jest to na wyrost i dlatego, ze nVidia skopala PS2.0 :) Okazalo sie, ze ATI jest za drogie i p[rawdziwi maniacy kupili GF 6800GT i teraz kazdy mowi, ze to PS.30 jest cudowne, wyprzedza technologicznie ATI i wogole ;) A moze w FarCry ta latka powodowala dzialanie niby PS3.0 a tak naprawde byla zwykla optymalizacja pod GF bo ten dostawal po [gluteus maximus], dzsiaj sie jeszcze nie dowiem co ten PS3.0 daje ;) Ale nie wydaje mi sie zeby byla taka straszna roznica jak miedzy PS1.3 a PS2.0 zreszta jak wyjdzie jakis tester PS3.0 i sie okaze ze PS2.0 ATI bedzie lepszy niz PS3.0 nVidii to sie poleje w gacie :) A co do tego ze gierki beda tak szybko wychodzic to niewiem, rynek na swiecie jest podzielony ;) na ATI vs nVidia i prosze pamietac ze ATI wprowadzilo PS2.0 a gierki i tak dlugo nie bylo ;) No ja jestem ciekaw co z tym EARTH bedzie ;) Jakos narazie gierki w ktore gram i mam zamiar grac jak wyjda bede obslugiwaly PS2.0 ;) a z tego calego PS2.0 to dzisiaj mnie interesuja 2 czy 3 tytuly ktore sa juz na rynku ;) wiec mi to PS3.0 zbede jest a miec tak zeby sie pochwalic to mija sie z celem ;) Ja powiem tyle, ze jezeli ktos gra w duzo starszych tytulow po necie i ma nVidie to wziolbym na jego miejscu ATI i zobaczyl z ciekawosci jak to jest ;) Ja tak wlasnie robie, a z tego powodu bo za dlugo musialem czekac na sensowne stery zeby grafa chodzila tak jak powinna .....

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

kazdy pisze jakby 6800 to bylo tylko ps3.0, a 2.0 jest skopane w tej karcie... co jest nieprawda 8) skopane to bylo w fx'ach. a co do ps3.0 to da sie all osiagnac na 2.0 podobno, a 3.0 daje to ze gry szybciej dziala czyz nie?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

quam nie wiem cos ty czytal ze 5900XT wypadalo lepiej niz 9800pro . . . 

a tak obiektywnie mowiac to jak odpowiednio zmodujesz odpowiednie 5900XT (np.gainwarda) to far cry nie ma prawa nawet sie zajaknac w max details. . . ( o ile masz 1GB ramu bo jak masz mniej to doczytuje z HDD ale to nie wina grafy )

Miałem Leadteka 5900XT z pamięciami 2.2ns (na nadruku było 2.8ns ale one się tak nie kręcą...)

Zegary podwyższyłem na 470/900 mało ? chyba nie...

i dalej w 1024x768 z patchem 1.1 i detalami HIGH miałem 27FPS... super nie ?? w pmieszczeniach 35 z czego sie cieszyłem... po włączeniu latarki spadało do 24... Formatowałem, zmieniałem stery, programy do OC...

 

i nic... skończyło się na rozdzielce 970x(cośtam) w omegach...

Tekstury HIGH reszta medium i wtedy mogłem pograć na 32FPS na zewnątrz i 40 w pomieszczeniach... z latarką -7 do -12 FPS !!

 

Potem sprzedałem ją... kupiłem Radka 9800SE odblokowałem potoki ale był 128-bit... i na sprzecie jak niżej grałem w 1280x1024 detale Very HIGH (cienie Low - bo waliły mnie cienie) na zewnątrz 40FPS wewnątrz 60FPS latarka nie zniemiała nic, może -1, -2 FPS

i 1Gb ramu nie był mi potrzebny...

 

Także zostałem przy radku...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

kazdy pisze jakby 6800 to bylo tylko ps3.0, a 2.0 jest skopane w tej karcie... co jest nieprawda  8) skopane to bylo w fx'ach. a co do ps3.0 to da sie all osiagnac na 2.0 podobno, a 3.0 daje to ze gry szybciej dziala czyz nie?

No to to ja wiem ze nVidia skopala PS2.0 w FX i oto chodzi, bo jak by teraz powiedzieli ze w 6800 jest PS2.0 to ciekawe czy ludzie by to kupili Ci co wtopili na FX ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wiecie co mnie rozwala jak to wszystko czytam ;) To, ze zanim wyszedl GF 6800 kazdy sie smial ze ma on PS3.0...

strasznie to wszystko uprosciles skupiajac sie tylko na PS3.0, ale SM3.0 to nie jest tylko PS, to jest tez VS3.0 i tutaj beda widoczne najwieksze roznice.Jesli nawet bedzie mozna wykonac programy PS3.0 przy pomocy PS2.0, to VS3.0 bez hardware juz nie przeskoczysz... a to przyklad wykorzystania VS3.0 ...woda... http://www.il2sturmovik.com/forgotten_batt...development.php

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Sulaco mozesz wyjasnic temat wody?? Z infa od Olega wynika ze FB nie bedzie juz rozwijane- 2.04 jest ostatnim paczem, wiec pozostaje tylko PF.

 

BTW jakiego monitora uzywasz? Bo niestety ale u mnie na przejsciowce obraz jest wyraznie gorszej jakosci niz na X800 :/ (Soniacz G500 na BNC)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Sulaco mozesz wyjasnic temat wody?? Z infa od Olega wynika ze FB nie bedzie juz rozwijane- 2.04 jest ostatnim paczem, wiec pozostaje tylko PF.

bo to wlasnie sa screeny z PF...

na stronce nvidii tez jest info o tym http://developer.nvidia.com/object/using_v...x_textures.html

z samego forum PF mozna wiecej wyciagnac...

 

BTW jakiego monitora uzywasz? Bo niestety ale u mnie na przejsciowce obraz jest wyraznie gorszej jakosci niz na X800 :/ (Soniacz G500 na BNC)

samsung 700ift na bnc...nie mam zastrzezen do obrazu...ale zaintrygowales mnie...sprawdze na kablu dvi<->crt bez przejsciowki...

btw: jak tam walka z biosem? pomoglo ?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

bo to wlasnie sa screeny z PF...

na stronce nvidii tez jest info o tym http://developer.nvidia.com/object/using_v...x_textures.html

z samego forum PF mozna wiecej wyciagnac...

Z tego co wiem, to displacement mapping mozna na R tez osiagnac, zreszta wole poczekac na oficjalne pokazanie sie tytulu i manualnie sprawdzic, bo nie mam zadnego zaufania do ludzi od marketingu.

 

samsung 700ift na bnc...nie mam zastrzezen do obrazu...ale zaintrygowales mnie...sprawdze na kablu dvi<->crt bez przejsciowki...

Ja tez nie mialem az nie zmienilem kart i odpalilem orazu kompa. Roznica jest wyraznie wyczuwalna, oczywiscie nie jest olbrzymia. Parametry 1280x1024x85.

 

btw: jak tam walka z biosem? pomoglo ?

Zbyt ostro nie walilem, ale wyglada na to, ze poprostu stery serii 66 zalatwily problem

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

bo to wlasnie sa screeny z PF...

na stronce nvidii tez jest info o tym http://developer.nvidia.com/object/using_v...x_textures.html

z samego forum PF mozna wiecej wyciagnac...

Z tego co wiem, to displacement mapping mozna na R tez osiagnac, zreszta wole poczekac na oficjalne pokazanie sie tytulu i manualnie sprawdzic, bo nie mam zadnego zaufania do ludzi od marketingu.

 

samsung 700ift na bnc...nie mam zastrzezen do obrazu...ale zaintrygowales mnie...sprawdze na kablu dvi<->crt bez przejsciowki...

Ja tez nie mialem az nie zmienilem kart i odpalilem orazu kompa. Roznica jest wyraznie wyczuwalna, oczywiscie nie jest olbrzymia. Parametry 1280x1024x85.

 

btw: jak tam walka z biosem? pomoglo ?

Zbyt ostro nie walilem, ale wyglada na to, ze poprostu stery serii 66 zalatwily problem

Jesli ten displacement mapping jest dobrodziejstwem nowego dziecka nVidii i mozna go uzyskac na Radkach ;) To jest to dosc smieszna sytuacja ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Miałem Leadteka 5900XT z pamięciami 2.2ns (na nadruku było 2.8ns ale one się tak nie kręcą...)

Zegary podwyższyłem na 470/900 mało ? chyba nie...

i dalej w 1024x768 z patchem 1.1 i  detalami HIGH miałem 27FPS... super nie ?? w pmieszczeniach 35 z czego sie cieszyłem... po włączeniu latarki spadało do 24... Formatowałem, zmieniałem stery, programy do OC...

Panie to ja na 5700 małpniętym na zewnątrz mam po 30-35 fps na high. Bez aa a anizo oczywiście.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z tego co wiem, to displacement mapping mozna na R tez osiagnac,

mozna ...oczywiscie...ale nie z Vertex Texture..."zwykly" displacement jest wykorzystany obecnie w il2, a wlasnie wraz z Vertex Texture da taki efekt jaki jest w PF...w skrocie chodzi o to, ze sam displacement jako rozwiniecie bump mappingu jest efektem 2d, wraz z Vertex Texture uzyska dodatkowy wymiar (wysokosc), bedzie pelnym 3D z pelna programowalnoscia, po prostu nie bedzie go trzeba wczesniej definiowac tak jak ma to miejsce w displacement przez nakladanie najpierw mapy wysokosci...

 

zreszta wole poczekac na oficjalne pokazanie sie tytulu i manualnie sprawdzic, bo nie mam zadnego zaufania do ludzi od marketingu.

zgadzam sie...niech chociaz polowa z tego belkotu marketingowcow sie sprawdzi to i tak bedzie niezle...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z tego co wiem, to displacement mapping mozna na R tez osiagnac,

mozna ...oczywiscie...ale nie z Vertex Texture..."zwykly" displacement jest wykorzystany obecnie w il2, a wlasnie wraz z Vertex Texture da taki efekt jaki jest w PF...w skrocie chodzi o to, ze sam displacement jako rozwiniecie bump mappingu jest efektem 2d, wraz z Vertex Texture uzyska dodatkowy wymiar (wysokosc), bedzie pelnym 3D z pelna programowalnoscia, po prostu nie bedzie go trzeba wczesniej definiowac tak jak ma to miejsce w displacement przez nakladanie najpierw mapy wysokosci...

 

zreszta wole poczekac na oficjalne pokazanie sie tytulu i manualnie sprawdzic, bo nie mam zadnego zaufania do ludzi od marketingu.

 

No tak pieknie ale kiedy beda gry ktore beda to wykorzystywac ?? :| NA rynku gier jest tylko kilka tytulow ktore korzystaja dopiero z dobrodziejstw PS i VS 2.0

 

zgadzam sie...niech chociaz polowa z tego belkotu marketingowcow sie sprawdzi to i tak bedzie niezle...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No tak pieknie ale kiedy beda gry ktore beda to wykorzystywac ?? :|

jesli chodzi od PF to mysle, ze w ciagu mies sie pojawi (niektore zrodla podaja dopiero poczatek listopada :( ) - skonczyly sie beta testy, tak wiec wersja gold juz niebawem, zas co do reszty tytulow to stawiam optymistycznie na koniec/poczatek roku. typowy okres na wysyp nowosci...

 

NA rynku gier jest tylko kilka tytulow ktore korzystaja dopiero z dobrodziejstw PS i VS 2.0

no coz...juz w tym interes nvidii, aby tytulow z SM3.0 bylo jak najwiecej...przynajmniej w zapowiedziach....

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No tak pieknie ale kiedy beda gry ktore beda to wykorzystywac ?? :|

jesli chodzi od PF to mysle, ze w ciagu mies sie pojawi (niektore zrodla podaja dopiero poczatek listopada :( ) - skonczyly sie beta testy, tak wiec wersja gold juz niebawem, zas co do reszty tytulow to stawiam optymistycznie na koniec/poczatek roku. typowy okres na wysyp nowosci...

 

NA rynku gier jest tylko kilka tytulow ktore korzystaja dopiero z dobrodziejstw PS i VS 2.0

no coz...juz w tym interes nvidii, aby tytulow z SM3.0 bylo jak najwiecej...przynajmniej w zapowiedziach....

 

Tak mozna debatowac bardzo dlugo, poniewaz rynek nie jest podzielony na 90% nVidii i 10% ATI, tylko jest prawie po rowno ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tak czytam to i czytam. Klocicie sie i klocicie juz od tygodnia :) Moze ktos pokusi sie o konkluzje co lepiej kupic  

 

GeForsa6800 czy X800?!  :D Pozdrawiam

z podsumowania recki Kris'a z TPC...

 

"...

Karty serii GeForce 6800 proponowałbym tym, którzy:

* Mają zaufanie do kart GeForce

* Zależy im na najwyższej wydajności w Doom3

* Chcą mieć kartę o największej ilości funkcji 3D

 

Karty serii Radeon X800 proponowałbym tym, którzy:

* Mają zaufanie do kart Radeon

* Zależy im na najwyższej wydajności w HL2

* Cenią sobie ciszę działania peceta "

 

i to tyle w temacie...nic dodac... nic ujac...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

no coz...juz w tym interes nvidii, aby tytulow z SM3.0 bylo jak najwiecej...przynajmniej w zapowiedziach....

Wiesz ze z tym bywa roznie. Gier z logo NV jest wiele, ale malo ktora potrafi wykozystac bajery jakie sprzet obsluguje. Nieraz bylo tak, ze gra mimo wsparcia ze strony NV dziala lepiej na karcie konkurencji. Zreszta ilez to tytulow potrafi wykozystac ponadprogramowe bajery FXa i jego SM2.0+??

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

blablablablablablablablablabalblablablabla...

a tu cigle to samo w kolo macieju - sm3.0 to cud, zmiecie z powierzchni ziemi ATi, itd. :? Jesli kogos tu posadzac o fanatyzm, to sorki, ale wlasnie tych, ktorzy ciagle wskazujac na gf6800U jako zdecydowanie lepsza karte ze wzgledu na implementacje sm3.0... Ludzie, jeszcze nie ma ZADNEGO, powtorze nawet z pogrubieniem ZADNEGO! programu (juz nawet nie gry...), ktory by wykazywal te wyzszosc... Od pojawienia sie nv40 padaja hasla 'nVidia juz o to zadba, aby szybciutko powychodzily gry korzystajace z sm3.0...' itd. A teraz popatrzcie ile juz miesiecy minelo ? Jesli sie pojawi cos wreszcie, co naprawde wykorzysta dobrodziejstwa sm3.0 i faktycznie bedzie to cos zapierajacego dech w piersi, to bez mrugniecia przyznam ze nv40 jest zdecydowanie lepsze od r420.

Ale w tej chwili NIE MA ABSOLUTNIE rzadnych powodow do twierdzenia jakoby gf6800u byla lepsza od radeonaX800XTpe. Sa to karty rownorzedne !

 

Vertex instancing, displacement mapping, dynamiczne skoki... o czyms zapomnialem ? Mialy to byc wg nVidii cuda, ktore mialy zmieszac z blotem ATI... I co sie okazalo ? Instancing jest juz w kazdym radku od 9500 wzwyz :lol: A dynamiczne skoki ? Zerknijcie tutaj - choc to nie przesadza sprawy - ktos moze kiedys wymysli jakis fajny sposob ich wykorzystania tak, ze nie da sie tego uzyskac 'emulacja'... Wiec zostaje tylko displacement mapping /o ile dobrze pamietam kwesti asprowadza sie so tego, ze procesory vertexow maja w nv40 bezposredni dostep do pamieci tekstur, a w r420 nie/... ...

Natiomiast co ma ATI r420, czego nie ma nv40 i miec nie bedzie ? A no kompresja map normalnych 3dc i temporal AA. temporal AA - uzyteczne wylacznie w przypadkach fps>60, wiec to jest pewne ograniczenie. Natomiast 3dc ma bardzo duzy potencjal - moze zdecydowanie poprawic jakosc bumpmap (3dc nie tylko daje znacznie lepsza jakosc, ale i zajmuje mniej, wiec mozna uzyc tekstury wyzszej rozdzielczosci)...

 

A dla tych ktorzy juz na starcie obwiescili zmiecenie x700* przez gf660, to tu wyniki... Pierwsze, bo pierwsze, nie nalezy im calkowicie ufac, ale mam nadzieje, ze troche coponiektorych ostudza... http://hkepc.com/hwdb/rv410-4.htm

 

Wiec ludzie, powiedzcie mi, gdzie wy widzicie te wielka przewage nVidii ? 8O Rece opadaja...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Koniec koncow bierz gf6800gt ;] Jest to boska karta. Zreszta, roznica moze byc miedzy tymi kartami miniamalna. Wiec lepiej brac nVidia - wiele gier jest na nia optymalizowane i nie ma tych problemow co z ATI, ze a to textury znikaja a to cos. Jestem posiadaczem GeForce 6800GT Gainward Ultra/2400 256MB i nie zamienibym sie NIGDY na ATI. Moze to przywiazanie do marki mnie wiezi, ale wg. mnie tak karta jest po prostu lepsza [ stosunek ceny/wydajnosci ]

 

Takze moja odpowiedz:

 

GeForce 6800GT

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

http://www.driverheaven.net/reviews/PNY/index.htm

 

proponuje zwrocic uwage na strone 10:

http://www.driverheaven.net/reviews/PNY/sh...ellshocknam.htm

 

Jak widac NV nie jest swieta. Oczywiscie to zaden dowod bo i ATI i NV maja klopoty, ale trche nietaktem jest paplanina ludzi, ktorzy nigdy nie mieli karty konkurencji i gadaja ze blabla bo nie dziala i nie ma to jak karta blabla

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Specjalnie ze wzgledu na ten test sciagnalem - sorki ;-) shellshocka... i co? Na moim gf6800gt chodzi bezblednie - choc gra jest gowniana niezwykle i po 15 min ja wywalilem ;-)

Pojawia się zatem pytanie, dlaczego wybrali do porownania gre, ktora ma grafike jak z 2001 r....? Moze komus tam sie w DH wykrzaczyla, wiec wykorzystali okazje, zeby uszczypnac nV... ;-)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach




×
×
  • Dodaj nową pozycję...