Skocz do zawartości

Rekomendowane odpowiedzi

mysle ze oba chipy wymiekna przy podobnych zegarach przy ekstremalnych ustawieniach, przekonamy sie co potrafi IBM, narazie maja na koncie dosc udane rzeczy ;]

co masz na mysli?

 

osobiscie zgadzam sie z jonathanem, jesli ktos kupil porzadne karte w ciagu paru ostatnich miesiecy, to nie ma zbytnio sensu brac teraz nowosci, chyba ze osobnik ma za duzo forsy i/lub chce sie popisac przed znajomymi; dla potwierdzenia tezy moj r9500 przed vmodem obslugiwal farcry'a w high detailach na przecietnie 80 fps w 1024x768, w 1152x864 tez powyzej 60 fps bylo, a jak na razie to chyba najbardziej wymagajaca z gier..... (teraz po modzie licze ze pare klatek wiecej pewnie by robil....)

 

nie sadze ponadto zeby na przyklad doom 3 albo half-life 2 mialy takie engine'y zeby trzeba bylo inwestowac na gwalt w nowy sprzet, badz co badz wiekszosc uzytkownikow ma karty rodzaju gf4 mx440 albo fx5200 i pewnie tez beda od biedy mogli sobie pograc (w niskich detalach)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Imo trzeba poczekaćna jakieś realne ceny i sterowniki.

Osobiście o ATI nawet bym nie myślał, ze względu na brak wsparciea shaderow 3.0. Ma co prawda wyzsza wydajnosc na trojkacikach, ale spojrzcie na nowa tendencje, dla przykladu zapowiedz Unreal3:

UT2k3/4 - postacie okolo 15k poly

Unreal 3 - okolo 10k poly

WTF? Otoz dzieki nowym technikom mapowania wybojow z shaderow 3 efektywnie mozna z tego wycisnac teoretycznie ponad milion polygonow.

 

Poza tym, jesli ktos sie wciaz decyduje na kupno ATi - radze zmierzyc natezenie pradu na zlaczu i jesli jest wysokie, wykonac przejsciowke na 2 molexy i zrobic ten numer co nvidia - co za duzo amper na przewodzie o malym przekroju, to nie zdrowo. (a warto przeteestowac, bo moze jednak natezenie nie jest tak wielkie; od okolo 5A robilbym takiego moda)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Imo trzeba poczekaćna jakieś realne ceny i sterowniki.

Osobiście o ATI nawet bym nie myślał, ze względu na brak wsparciea shaderow 3.0. Ma co prawda wyzsza wydajnosc na trojkacikach, ale spojrzcie na nowa tendencje, dla przykladu zapowiedz Unreal3:

UT2k3/4 - postacie okolo 15k poly

Unreal 3 - okolo 10k poly

WTF? Otoz dzieki nowym technikom mapowania wybojow z shaderow 3 efektywnie mozna z tego wycisnac teoretycznie ponad milion polygonow.

 

Poza tym, jesli ktos sie wciaz decyduje na kupno ATi - radze zmierzyc natezenie pradu na zlaczu i jesli jest wysokie, wykonac przejsciowke na 2 molexy i zrobic ten numer co nvidia - co za duzo amper na przewodzie o malym przekroju, to nie zdrowo. (a warto przeteestowac, bo moze jednak natezenie nie jest tak wielkie; od okolo 5A robilbym takiego moda)

 

Hehehehehehe. To mnie troche rozbawiłeś heheheheeh.

Po pierwsze mapowanie wybojów ma już 9500 hehehe. Shadery 3.0 nie dają żadnego efektu więcej od 2.0! Widać uwierzyłeś w prezentację nVidii. :lol: :lol: :lol: Co do tego namierzania :lol: :lol: :lol: to jakbyś niedoczytał czy coś to X800XT pobiera mniej prądu od 9800XT. :lol: :lol: :lol:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Panowie, jak któryś z was wykopie jakieś informacje na temat emulacji dem z AtiX800 na "słabszych" kartach to dajcie znać  8)

a jest gdzies wogole jakis filmik z ruby w akcji?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Osobiście o ATI nawet bym nie myślał, ze względu na brak wsparciea shaderow 3.0.

Hehe - akurat nowa ATI ma 6 jednostek kompatybilnych z VS3.0 ktore sa odpowiedzialne m.in za pelny displacement mapping (nawiasem mowiac podobny parallax mapping jest dostepny juz a R300/350/360) Nowe radki nie maja tylko PS3.0 (ktore jesli chodzi o uzyskiwane efekty graficzne niczym nie roznia sie od PS.2.0) Nie zmienia to jednak faktu ze aktualnie obydwie karty 6800Ultra i X800XT sa bardzo zaawansowane i interesujące - jesli jeszcze wersje 6800 i X800Pro dadzą się zmodować..... uff cieżko będzie się na coś zdecydować :) Pod warunkiem ze firmy nie zjebią sterów (bądź nie wrzucą jakiś dziwych optymalizacji pogarszających jakość ;) - bądź co bądź czego się nie robi by pokonać konkurenta... :) )

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ven0m dales sobie zrobic wode z mozgu przez Nvidie :/ Doczytaj do konca co daja shadery 3.0 i potem przeczytaj swojego posta jak sie nie usmiejesz to juz nie wiem :P Propaganda Nvidii czyni cuda....

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Propaganda Nvidii czyni cuda....

wystarczy posłuchac kolesia z Crytek na pokazie nVidia ktory cały czas mowi:

".. which is only posible with shadermodel 2.0 and shadermodel 3.0.. "

 

a koles z nVidii mowi .. ze to tylko na naszym cudownym shaderze 3.0

a dla porównania daja zdjecie z pixel shadera 1.1 :) lol na maxa

jedyne co mi sie spodobalo to to jak pokazywali taka scene gdzie dali kupe jakis asteroidów i statków i zastosowali jakis myk ze framrate sie podniósł to było cool

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

jonathan - zgadzam sie z Toba w 100% Ta generacje graf sobie daruje. Poczekam na R500. Ale znajac zycie to pewnie zrobie to jak juz na dobre wejdzie standard BTX, DDR2 i PciX. Poki co wypaslem swoj sprzet i mam zamiar pohulac nim conajmniej jeszcze 1,5-2 lat bez jakis wiekszych inwestycji.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A ja osobiscie chyba ta generacje sobie daruje i zaczekam na kolejna :wink:

I tak nie wykorzystuje calosci mocy mojej karty. Bo i w czym???

tez sie zgodze jednak nie do konca, owszem np. moj radek 9700Pro radzi sobie ze wszystkim bez problemu, jednak gdy wlacze filtrowanie x8 i AAx4 to juz np. Far Cry nie byl juz taki idealny w 1024. Wiec nie przesadzaj ze nie wykozystujesz obecnych kart do maxa, no to tez o czywiscie zalezy w jakie pozycje grywasz. Ja osobiscie nie potrafie juz grac bez Filtrowania i AA przynajmniej na poziome x4 poprostu gra bez tych dodatkow mnie odrzuca, fakt kiedys mi to nie przeszkadzalo teraz juz tak. Oczywiscie tez nie bede gral w rozdz. 800x600, min. 1024 ale to naprawde minimalnie jak juz wiecej sie nie da, narazie wszystko mi smigalo w 1280x1024/1600x1200 + AAx4 i Anizox8 do czasu pojawienia sie Far Cry'a czy Splinter Cella Pandora. Ogolnie na pewno wszystko bedzie smigac pieknie i nowe gry tez ale bez AA i Anizo

Jednak nie dalem ok. 1000zl za karte zeby grac i widziec obrzydliwe schodki czy nie wyrazne tekstury.

Podsumowujac : wydaje mi sie ze obecne karty pokroju 9500/9700 dadza rade wszystkiemu, jednak w nadchodzace gry zeby pograc w 1280 + AA i Anizo trzeba by juz miec te cudenka klasy GF6800 czy Ati X800

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

tak czy siak , geforce 6800 ultra wydaje sie byc lepsza karta od tego radka nowego platinuim , a co najwyzej porownywalna . sam mam radka 9700 wczesniej 9500pro , ale teraz gdybym mial wybierac to wzialbym nvidie - nawet jesli porownywalna wydajnosc to stery zawsze byly lepsze i mniej problemowe

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

tak czy siak , geforce 6800 ultra wydaje sie byc lepsza karta od tego radka nowego platinuim , a co najwyzej porownywalna . sam mam radka 9700 wczesniej 9500pro , ale teraz gdybym mial wybierac to wzialbym nvidie - nawet jesli porownywalna wydajnosc to stery zawsze byly lepsze i mniej problemowe

Buahahahhahahah to sie spiesz... bo tylko 10.000 sztuk jest ;p Pozatym masz zasilacz minimum 420w?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

tak czy siak , geforce 6800 ultra wydaje sie byc lepsza karta od tego radka nowego platinuim , a co najwyzej porownywalna . sam mam radka 9700 wczesniej 9500pro , ale teraz gdybym mial wybierac to wzialbym nvidie - nawet jesli porownywalna wydajnosc to stery zawsze byly lepsze i mniej problemowe

Buahahahhahahah to sie spiesz... bo tylko 10.000 sztuk jest ;p Pozatym masz zasilacz minimum 420w?
z tym zasilaczem to pic na wode fotomontarz robiono testy na zwyklej zasilce ( noname czy tam codeshit) 300 nibywat i nic sie nie wieszalo !!!

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

buahahahaha - robili testy na zasilczu 300 W chyba fortona - i karta chodzila bezproblemowo . buahahahahah - co takiego ati ci dalo ze jestes jakims ich fanatykiem . myslisz ze oni sie toba przejumja - hahaha maja cie w [gluteus maximus] i tylko o kase tu chodzi - nie robia nic za darmo . a ty traktujesz ta firme jak jakas swieta , co ona jesc ci daje ? pieniadze czy jak ? buahhahahaha - napisalem GDYBYM mial wybierac . ogolnie buahahahahahahaha

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

tak czy siak , geforce 6800 ultra wydaje sie byc lepsza karta od tego radka nowego platinuim , a co najwyzej porownywalna . sam mam radka 9700 wczesniej 9500pro , ale teraz gdybym mial wybierac to wzialbym nvidie - nawet jesli porownywalna wydajnosc to stery zawsze byly lepsze i mniej problemowe

Buahahahhahahah to sie spiesz... bo tylko 10.000 sztuk jest ;p Pozatym masz zasilacz minimum 420w?
z tym zasilaczem to pic na wode fotomontarz robiono testy na zwyklej zasilce ( noname czy tam codeshit) 300 nibywat i nic sie nie wieszalo !!!

Wielu osobom sprzęt działa na Codegenie, nic się nie "wiesza" a potem...

A przy tak zaawansowanej karcie i potrzebującej takiej mocy - ja bym nie zaryzykował :lol:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Odnosnie jakosci sterow ATI i NV, to pozwole sobie przytoczyc wypowiedz niejakiego PET`a:

 

Przewija się często w komentarzach stwierdzenie, że ATI ma słabe sterowniki. Jest to straszna bzdura ponieważ ATI ma właśnie niesamowicie dobre i zgodne ze specyfikacją sterowniki (mówię o zgodności z DirectX). Niestety nie mogę tego powiedzieć o NV. Sterownik ATI nie pozwala programistom robić rzeczy na które nie pozwala podręcznik Microsoftu. Natomiast programując przy użyciu sterownika NV można napisać sporo bzdur i program się wykona tak jak się nam wydaje, że powinien - choć nie ma prawa. Np. kilka razy BeginScene bez EndScene, albo rysowanie bezpośrednio do bufora 2d z włączonym FSAA i wiele innych błędów. Niedoświadczeni programiści pisząc na kartach NV niestety popełniają więcej błędów, których nie zauważają bo sterownik ich o tym nie informuje. Wiele da się wychwycić w trybie "debug" ale nie wszystko. Właśnie takie starania Nvidii aby ich karty były jak najmniej kompatybilne są winne temu, że gry czasem na innych kartach źle działają lub w ogóle. Są potrzebne patche. Nvidia stara się poprawiać co bardziej karygodne błędy (bo certyfikat WHQL coraz trudniej dostać) i widać jak na nowszym sterowniku stara gra przestaje czasem działać.  

Popełnianie podstawowych błędów o których piszę już się praktycznie nie zdaża ale to dzięki ATI programiści się nauczyli dobrze pisać programy.

Gdzie pisałem, że Nvidia nie ma WHQL ? Pisałem, że coraz trudniej go dostać i tyle. Ale co do tego tematu to był przecież okres kiedy kilka miesięcy Nvidia nie mogła dostać tego certyfikatu dla nowych sterowników. Pomijając błędy w obrazie to najbardziej wkurzyła M$ podmiana plików dll z biblioteki DirectX na własne Nvidii oczywiście bez zgody M$. Skutkiem tego było więcej fps oraz gorszy obraz. Był jeszcze dodatkowy skutek. Instalacja Radeona w takim systemie była skazana na porażkę i nie chciał on poprawnie działać. Jedynym wyjściem była reinstalacja całej biblioteki DX albo systemu(co czynili mniej zorientowani).  

Po tej akcji mamy ATI w X-Box2 no i NVidia nie wspiera już DirectX zbytnio. Jako developer w ogóle prawie nie korzystam z ich strony ponieważ tam od dawna nie pojawiają się przykłady do DirectX a jedynie do OpenGL. Ok, wszyscy lubimy OpenGL tylko Nvidia postanowiła stworzyć swoje własne OpenGL ze swoimi rozszerzeniami podczas gdy istnieją już podobne odpowiedniki w standardzie. Do dzisiaj ten proceder jest uprawiany nawet w najnowszym SDK7.0.  

Prawdopodobnie dodatkowy powód to to, że Radeony wówczas mogłyby uruchamiać te przykłady z tym, że zrobiłyby to prawdopodobnie szybciej i ładniej.

pelny link jest tu: http://www.frazpc.pl/komentarz/10499

 

 

Na koniec zauwazcie co jaki czas NV wypuszcza sterty z WHQL. Co kilka miesiecy (nie mowie o zalewie beta, ktorych jest cale mrowie). ATI co miesiac.

 

Osobiscie podobaja mi sie obie karty :) Chyba jednak mimo wszystko wezme ATI bo bardzo dobrze radzi sobie z AF i mniej traci na wydajnosci. AA mnie nie bawi bo wole walnac sobie wyzsza rodzielczosc niz grac 1024 z AA. Za to AF jest wspaniale. Decyzji jeszcze nie podjalem i zalezec bedzie wiele od ceny. Niestety mam uprzedzenia w stosunku do NV w zwiazku z ubiegloroczna, krotka bo 2 tygodniowa przygoda z GFFX5900. Te ichnie optymalizacje nie przechodza mi przez gardlo. Zawsze mozna sie spodziewac ze okaze sie iz cos jest "zoptymalizowane", albo dziala inaczej niz powinno (obnizona precyzja w FarCry). To mnie drazni. Wole bez optymalizacji i oszystw. 100% zgodnosc z API.

Do tego zjada mniaj pradu i na ATI latwiej robic mody niz na NV ;) (ATI nie ma radiatorkow na memkach :D). Argument o PS3.0 do mnie nie trafia, a jak juz cos sie pojawi z PS3.0 to sprzedam ATI i kupie GF`a (o ile NV skonczy z otymalizacjami).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

z tym zasilaczem to pic na wode fotomontarz robiono testy na zwyklej zasilce ( noname czy tam codeshit) 300 nibywat i nic sie nie wieszalo !!!

Faktycznie, to byl 300W zasialcz ale MARKOWY. Ja bym nie ryzykowal podlaczenia do Codegena bo tylko dym by zostal. Warto rozroznic, co dla nas jest zwyklym zasilaczem, a co dla tamtych ludzi, bo to zupelnie inne kategorie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

GeForce 6800 Ultra in this board operates at 450MHz clock rate. The card features 256MB of 1.6ns / 1.2GHz DDR3 memory and VGA, DVI interfaces. Its MSRP is ?899.  

 

At the same time the company released a version with usual though low-noise 120mm fans. This one will have lower clock rates (430/1150MHz) and thus "only" ?599 MSRP.

[ http://www.digit-life.com/news.html?104514#104514 ]

Ceny jak sie mozna bylo spodziewac... :D

A tak nawiasem - przegladowo testy sa 'dziwne' - na kazdej stronie inne wyniki w tych samych benchmarkach :lol: Najbardziej utkwily mi w pamieci te z 'Call of duty', w ktorych wg jednych recenzji sporo lepsze jest r420, wg innych nv40... :lol: :lol:

 

Sam nie bede sie wdawal w dyskusje, co jest lepsze - to sie okaze, jak pojawia sie nowe gry i directX9.0c - zobaczymy, jakiego kopa nv40 dostanie dzieki shaderom 3.0. Natomiast jesli beda rowniez wykozystywane funkcje 2.0+ zaimplementowane w r420, to ciagle syt. bedzie nierozstrzygnieta.

I dobrze :D

 

Osobiscie kupilbym ATI - po prostu nVidia jest u mnie skonczona przez swoje poprzednie 'marketingowe' klamstwa - nie znosze oszustow :evil:

Wiec po testach juz sie napalilem na r420pro - po odblokowaniu 4 potokow i podkreceniu bedzie miodzik :P :D

 

Swego czasu padaly porownania ze, Nalu miala 200k czy 300k polygonow, a Ruby 'tylko' 60k - tyle, ze w scenach z Ninja oraz panem 'jedno oko' polygonow jest ponad 300k... :) A i chyba juz po obejrzeniu filmiku wszyscy sie zgodza, ze demko ATI jest zdecydowanie lepsze. Nie mam na mysli '''fabuly''' :wink: - ale o technicznym zaawansowaniu uzytych efektow - bez porownania szersze spektrum.

A tak nawiasem - zassajcie sobie i ogladnijeci eto drugie demko - na mnie zrobilo wieksze wrazenie - jak ten posag jest zmniejszony, to wyglada nieziemsko rzeczywiscie - dyfuzja i refrakcja swiatla genialne !!!

 

A teraz taka mala dygresja co do pedu branzy w kier. poprawiania pixel shaderow - nie wiem, czy ktos sobie zdaje z tego sprawe, ale to wszystko idzie dokladnie w kierunku prawdziwego ray-trace-ingu w czasie rzeczywistym ! Toz jesli w przyszlosci, z powiedzmy ps6.0, karta bedzie mogla wykonac tyle zlozonych instrukcji dla kazdego pixela ekranu, to bedzie mozna juz pokusic sie o rzeczywiste wyliczenie dla kazdego punktu juz dosyc zawansowanego sledzenia promieni !!

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A tak nawiasem - przegladowo testy sa 'dziwne' - na kazdej stronie inne wyniki w tych samych benchmarkach :lol: Najbardziej utkwily mi w pamieci te z 'Call of duty', w ktorych wg jednych recenzji sporo lepsze jest r420, wg innych nv40... :lol: :lol:

Nie ma sie czemu dziwic. Testy te robione sa na podstawie dowolnie nagrywanego timedemo. Kazdy serwis robi benche ma innym demie i dlatego te roznice. Poprostu mie na jednej, wspolnej, uniwersalnej metody pomiarowej.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Do pełnego RayTraceingu jeszcze troche brakuje ale na pierwsszy rzut oka na Ruby takie właśnie miałem wrażenie! :D Co do ilości wielokątów to myślę, że każdy domyślił się już po obejżeniu demka. :wink:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

NO mi tez bardziej podoba sie nowa Ati NV nie lubie za ich ostatnie wybryki z sterownikami 3DMarkiem itp itd. Kiedys to tylko nv uzywalem ale ostatnia moja karty z serii nv byl GF ti4200 - moim zdaniem rewelacyjna karta za taka cena byla poprostu super, krecilo sie bez problemu do poziomu Ti4600. Niestety nastepne kary z serii FX to juz jedno wielkie nieporozumienie i tak przesiadlem sie na ATI.

Trzeba jeszcze cos zauwazyc ze praktycznie nowy chip R420 tak naprawde jest przerobioym R300 + dolozone 8 potokow. Co daje do myslenia ze R300 jak na swoje lata jest tak wspanialym prockiem (o wielkich mozliwosciach) natomiast nowy GF jest od nowa zaprojektowany.

 

Lancer - nie przesadzaj ze zwiekszenie rozdzielczosci da ci taki sam efekt co FSAA, zdecydowanie gra lepiej wyglada na 1024 + 6xFSAA niz na 1280 czy nawet 1600 bez FSAA, nie mowie juz jak np. wyglada gierka w 1280 + 4FSAA. Zeby wyeliminowac schodki musial bys uzyc baaaardzo duze rozdzielczosci, a i tak do konca ich bys nie wyeliminowal.

pozdro

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

chociaz lubie NV, mimo to posiadam radka 9600pro, i teraz jak mialbym kupowac karte to tez ciezko by mi bylo zaufac NV, ale... na szczescie nie musze teraz kupowac i w pol roku sytuacja bedzie wygladac jasniej :D:D:D

 

mialem wlasnie zapytac, o co chodzi w tej nowej/starej technice AA w ATI?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Lancer - nie przesadzaj ze zwiekszenie rozdzielczosci da ci taki sam efekt co FSAA, zdecydowanie gra lepiej wyglada na 1024 + 6xFSAA niz na 1280 czy nawet 1600 bez FSAA, nie mowie juz jak np. wyglada gierka w 1280 + 4FSAA. Zeby wyeliminowac schodki musial bys uzyc baaaardzo duze rozdzielczosci, a i tak do konca ich bys nie wyeliminowal.  

pozdro

Nie przesadzam i takie mam poprostu odczucia. Mi schodki od 1280x1024 (bo w tylu gram) nie przeszkadzaja. Wole sobie wlaczyc Anizo, a w tym ATI jest poprostu dobre i mniej traci od NV. Zreszta wyobraz sobie obraz skladajacy sie kilku piksel w rozdzielczosci 1024. Ten sam obraz w 1280 bedzie bardzij wyrazny z uwagi na budowe chocby samego wnetrza z wiekszej ilosci pikseli, choc faktycznie bedzie mial kilka schodkow po bokach. Ale co mi z kolei za frajda ogladac rozmazana plame tyle ze bez schodkow? Sporo pogrywam w simy i moim zdaniem tam AA nie bardzo odgrywa jakas role. Wrecz przeciwnie. Obiekty bez AA a z AF sa latwiej rozpoznawalne i prosciej w nie trafic. Duzo bardziej cenie Anizo i jakosc obrazu z AA nie ma dla mnie znaczenia. Zreszta nawet jesli juz mowimy o AA to te w wydaniu ATI tez jest ladniejsze, z uwagi na nie ingerowanie w bufor szablonowy. W niektorych aplikacjach NV z AA rozmazuje obraz i wygladza to do czego nie powinno ingerowac. AA u NV mnie odraza. Ale to tylko moje odczucia i nie mam zamiaru nikogo przekonywac. Moim zdaniem lepiej wlaczyc rozdzielczosc 1280 lub 1600 z AF8x niz 1024 z AA i AF (moze to dlatego ze na 21'' monitorze 1024 wyglada poprostu oblesnie :P).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

AA u NV mnie odraza. Ale to tylko moje odczucia i nie mam zamiaru nikogo przekonywac. Moim zdaniem lepiej wlaczyc rozdzielczosc 1280 lub 1600 z AF8x niz 1024 z AA i AF (moze to dlatego ze na 21'' monitorze 1024 wyglada poprostu oblesnie :P).

Zgadzam się. Ja mam 19 i 1024 dla mnie to strasznie kiepska rozdziałka! Ja natomiast używam albo 1600x1200 bez AA albo 1280 + AA2x (teraz 2Tx2AA) i jest super! :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Natomiast ja mam zdanie odmnienne :) Tzn na stale mam wlaczone AAx4 badz 6, baaaardzo rzadko daje x2, ale zawsze cos. Do tego oczywiscie AF x 16, choc ostatnio x8 - w praktyce roznica niewidoczna. I wszystko puszczam w 1024x768. Ale jest i tego pewne wytlumaczenie - mam 17"... :D Choc nie zmienia to faktu, ze nawet gdybym mial 21, to wolalbym mniejsza rozdzialke ale z AA.

 

A tak dla zabawy proponowalbym Wam puszczenie jakiejs gierki w 320x240 z max AA i AF. Miodzio :) Dla mnie bomba ! Przykladowo taki Gothic wygladal bardzo bardzo ciekawie :) Gierki zyskuja pewien charakterek - zupelnie jak przerywniki filmowe z gier z lat 90 :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

spoko ja tez nie chce nikogo do niczego przekonywac, sam posiadam monitor 21" i wcale tak zle gry w 1024 wedlug mnie wygladaja, co innego na LCD to wtedy inna sprawa. Tak samo sprawa dotyczy Filtrowania, bez tego tez gry nie uruchamiam, zawsze mam ustawione FSAAx4 + Anizox8 i ustawiam rozdzielczosc w grze w zaleznosci jak dziala plynnie, wszystkie detale gry na maxa a zagluje rozdzialka od 1024 w gore bo nizej to juz przesada :) i narazie jest pare gierek ktore musze uruchamiac w 1024 : np. Far Cry, Splinter Cell Pandora, najnowszy Tomb Raider

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach




×
×
  • Dodaj nową pozycję...