Skocz do zawartości
Vincent de Marco

6800gt Czy X800xl

Rekomendowane odpowiedzi

Jako wlasciciel 6600gt i poprzednio radeon8500 , stwierdzam iz nvidia robi obecnie lepszy technologicznie hardware. Wiec jesli chodzi o karty z wyzszego przedzialu to;

Oznacza to, ze jesli ktos potrzebuje karty max cichej , to kupujac od nvidi zaoszczedi kilka stopni w budzie.

Natomiast ati robi duzo lepsze sterowniki. Nie mozna nawet tego porownywac. Wiec jakosc od tej strony przemawia za ati , jesli nie przeszkadza komus wyjacy wiatrak.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jako wlasciciel 6600gt i poprzednio radeon8500 , stwierdzam iz nvidia robi obecnie lepszy technologicznie hardware. Wiec jesli chodzi o karty z wyzszego przedzialu to;

Oznacza to, ze jesli ktos potrzebuje karty max cichej , to kupujac od nvidi zaoszczedi kilka stopni w budzie.

Natomiast ati robi duzo lepsze sterowniki. Nie mozna nawet tego porownywac. Wiec jakosc od tej strony przemawia za ati , jesli nie przeszkadza komus wyjacy wiatrak.

1534168[/snapback]

LoL

Chyba ci się coś pomieszało, bo z tego co sie orientuje to jest dokłanie na odwrót...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Kolego, do niedawna mialem ati teraz mam to co w podpisie i wiem co pisze, I wcale nie jestem szczesliwy iz musialem kupic produkt nvidi (a sterowniki to po prostu tragedia).

Edytowane przez Tom0000

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

przeczytałem cały ten temat i chciałbym się dowiedzieć od tych co mieli obie karty, czy róznica w efektach wyświetlanych przez ps2.0 i ps3.0 jest na tyle duża, żeby jednak brać 6800GT, czy jednak lepiej odpuścić sobie i brać X800XL ?.

Edytowane przez .PaVLo.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

przeczytałem cały ten temat i chciałbym się dowiedzieć od tych co mieli obie karty, czy róznica w efektach wyświetlanych przez ps2.0 i ps3.0 jest na tyle duża, żeby jednak brać 6800GT, czy jednak lepiej odpuścić sobie i brać X800XL ?.

1536074[/snapback]

Mialem obie karty - zostalem przy ATI - jest bardziej "user friendly"... Wielkiej roznicy nie zauwazylem i zostalem przy tym co mi bardziej pasowalo :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Kupując obecnie kartę nie będe jej zmieniał przez najbliższy rok lub więcej, w tym czasie prawdopodobnie wyjdzie Gothic 3 czy STALKER, który będzie korzystał z dobrodziejstw PS 3.0, ale też i z PS 2.0, już teraz widać tą różnicę w grze FarCry, więc chyba bardziej skłonie się w stronę 6800GT, chociaż czuje sentyment do ATI po świetnej karcie jaką mam 9800 Pro@XT

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Kupując obecnie kartę nie będe jej zmieniał przez najbliższy rok lub więcej, w tym czasie prawdopodobnie wyjdzie Gothic 3 czy STALKER, który będzie korzystał z dobrodziejstw PS 3.0, ale też i z PS 2.0, już teraz widać tą różnicę w grze FarCry, więc chyba bardziej skłonie się w stronę 6800GT, chociaż czuje sentyment do ATI po świetnej karcie jaką mam 9800 Pro@XT

1536267[/snapback]

Ta roznica w FC miedzy PS2.0 a 3.0 ktora czasto lubia wykorzystywac sprzedawcy GF'ow na allegro to oszustwo :). Tak naprawde jest to porownywanie PS2.0 z PS1.1 i pochodzi z pokazow nVidi, ktora miala pokazac mozliwosci PS3.0 i roznice miedzy PS2.0 jednak nVidia oszukala bo jak pisalem wzej bylo to porownywanie PS2.0 z PS1.1 :). Takie male oszustwo :). Teraz czesto(szczegolnie na allegro) niektorzy staraja sie wciskac ze to jest porownnanie PS2.0 z 3.0.

Dołączona grafika

Dołączona grafika

 

A co do samej roznicy miedzy PS2.0 a PS3.0 to przy pomocy PS2.0 mozna uzyskac taki sam obraz jak przy uzyciu PS3.0 roznica polega na dlugosci shadera bo standard PS3.0 pozwala na nieskonczona dlugosc shadera podczas gdy PS2.0 nie dlatego jesli instrukcja jest za dluga to zostaje ona podzilona i wyrenderowana co moze powodowac spololnienie wyswietlanej grafi lub pogorszenie obrazu koncowego. Do tego programiscie latwiej pisac w standardzie PS3.0.

 

A co do tematu to wybor trudny. Ati jest tansze, rownie szybkie, super sie kreci jednak GF jest zgodny z SM3.0, a nie wiadomo co bedzie jutro. Zawsze to zgodnosc z wyzszym standardem.

nVidia jest potega i wie gdzie sypnac forsa(np. nowy splinter). Wdajnosc w OGL jest wyzsza na kartach nVidi(lepiej dopracowane sterowniki dla tego standardu).

Mimo ze Ati jest niewile tansze ma podobna wydajnosc i swietnie sie kreci to jednak ja osobiscie wybralbm GF'a ale to moje zdanie i nie wszscy musza sie z nim zgadzac B)

Edytowane przez sucker

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

dzisiaj zamieniłem swojego Radeona 9800 Pro na karte od producenta Point of View 6800GT, z początku wydała mi się troche dziwna, całkiem inna niż ma mój brat, który też ma kartę od Point-a. Dopiero jak dobrze sie przyjrzałem okazało się, że karta jst od ASUSA (model V9999GT), posiada ona dwa gniazda zasilania. Może ktoś testował kartę od ASUSA lub ją ma i podzieli się wrażeniami, bo w sumie jak by nie było mam 10 dni za zwrócenie jej

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość poli_x

mam obie te karty i wnioski sa takie

 

pomimo iz wyniki w benchmarkach sa ciut wyzsze na 68gt to min. sredni i najwyszy fps jest na radeonie (testowane na farcry , sc3 , mohpa, colin 5 itp, wyjatkiem jest tutaj d3 w którym avr, fps jest o 5fps wyzszy na nv ale w grze kompetnie róznica nieodczuwalna) np. w sc3 tam gdzie na nv mam 25 fsp to na radku o 10 wiecej - a róznic w wbudowanym w SC3 benchmarku pomiedzy grafami nie ma i to kolejny dowód na to, iz wyniki w benchmarkach daja jakis tam poglad na mozliwosci jednak najczesciej zupełnie nie odzwierciedlają tego co jest podczas gry

we farcry na nv musiałem zmiejszyc w ustawieniach (4AA , 8Ainzo)  opcje lighting quality z very high na high bo powodowała bardzo nieprzyjemne przycinki np. podczas wybuchu gierka przycinała na ułamek sekundy 

 

dx9c i sm3.0 to na razie bzdura i nie warto sobie tym zawracac głowy

 

HDR w farcry wyglada beznadziejnie natommist w sc3 całkiem w porzo z tym ze niestety wyklucza sie z AA co go w mych oczach dyskwalifikuje

 

Ci którzy mieli okazje porównac obie grafy wiedza jakim doskonałym narzedziem jest ati tray tool (od ruskich) , podobnego softu dla nv niestety nie ma

 

no i tyle chyba

aha- O/C

gf- 436/1150

xl- 445/1200 - obie na stock chłodzeniu (po zmienie na zalmana 450/460 gwarantowane)

jakosc obrazu - doskonale na obu - nie ma najmniejszych róznic w obrazie 2D/3D

1465397[/snapback]

tak sobie wpadłem tylko w ten temat zobaczyc co sie dzieje ;) i jakie tego efekty...mozna padać na podłoge i się zalewać łzami ze śmiechu z tego co piszą tutaj ludzie....dowiedziałem sie np. ze roznica miedzy 6800 GT a x800XL w doom 3 wynosi 5 fps,tak naprawde jakies do 20fps jak nie wiecej wiecej na korzysc NV ;) poniewaz jak kazdy wie doom3 to taka reklama NV co wiecej...6800 GT osiąga 25 kratek x800xl 35 kratek.... w Splinter Cell Chaos Theory kolejne smiechu warte słowa.... 25 kratek to mam przy włączonym HDR w full detalach przy 1024 na GF 6600 ;) :lol2: 35 fps mam z wyłączonym HDR czyli Pixel 1.1 (widze ze moj GF 6600 dorownuje x800xl :lol2: :)

 

Dołączona grafika

 

Far Cry

 

Dołączona grafika

 

 

Dołączona grafika

 

 

Dołączona grafika

 

 

"dx9c i sm3.0 to na razie bzdura i nie warto sobie tym zawracac głowy"

 

-tak bzdura w szczegolnosci dx9.0c ;) :lol2:

-Sm 3.0 to tez bzdura w szczegolnosci ze Pixel 2.0 to jest wlasnie gowno...poniewaz to tylko przejsciowka co widac dobrze w Splinter Cellu nie ma tam do wyboru 1.1,1.4,2.0,3.0 jest tylko 1.1 albo 3.0,to chyba tyle....nie chce mi sie poprawiac innych kazdy rozumie po swojemu :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

tak sobie wpadłem tylko w ten temat zobaczyc co sie dzieje ;) i jakie tego efekty...mozna padać  na podłoge i się zalewać łzami ze śmiechu z tego co piszą tutaj ludzie....dowiedziałem sie np. ze roznica miedzy 6800 GT a x800XL w doom 3 wynosi 5 fps,tak naprawde jakies do 20fps jak nie wiecej wiecej na korzysc NV ;) poniewaz jak kazdy wie doom3 to taka reklama NV co wiecej...6800 GT osiąga 25 kratek x800xl 35 kratek.... w Splinter Cell Chaos Theory kolejne smiechu warte słowa.... 25 kratek to mam przy włączonym HDR w full detalach przy 1024 na GF 6600 ;) :lol2: 35 fps mam z wyłączonym HDR czyli Pixel 1.1  (widze ze moj GF 6600 dorownuje x800xl :lol2: :)

 

1545016[/snapback]

Pixel shader 2.0 to bylo g...o ale w GF fx szajs jak nie wiem. I nvidia zeby sie jak najszybciej z tego wyplatac zapodala pixel shader 3.0. Inaczej sprawa wygladala z PS 2.0 u ATI w tych kartach to wlasnie bylo tym czym mialo byc. Tylko nie mow, ze jest kosmiczna roznca w grafie miedzy szaderami 2.0 i 3.0 bo nie ma zadnej jedynie wydajnosc jest wyzsza przy wlaczeniu ps 3.0.

 

ps. po co poruszasz watki typu, ze nawet splinter cell 3 nie obsluguje PS2.0 przeciez to kazdy wie ,ze nvidia kasa sypnela wiec to co piszesz nie ma sensu.

 

ps2. uwierz nie zamienilbym nawet radeona 9800 na gf6600 a co dopiero x800xl widac, ze ty tez bys nie mogl recenzji pisac. Wyobraz sobie teraz klienta ktory nie wie jaka karte kupic i po przeczytaniu twoich madrosci idzie do sklepu po 6600 zamiast x800xl poprostu LOL

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@poli_x

 

W najnowszym SC nie ma obslugi SM2.0 nie dlatego ze to jest przejsciowka ale dlatego ze na poczatku gramiala obslugiwac tylko(podkreslam tylko) SM1.1 bo byla ona opracowywna dla XKloca. Pod koniec prac nad gra nVidia sypnela kasa i chciala aby wprowadzic obsluge SM3.0 wiec nie gadaj takich glupot bo ktos jeszcze uwierzy ze SM2.0 to przejsciowka. Moze najpierw poczytaj czym rozni sie od siebie SM1.1, 1.3, 1.4, 2.0 2.0a, 2.0b, 3.0 a potem snuj swoje teorie.

 

 

A co do HDR to jest to bajer, nawet fajny ale obecnie brak kart ktore sa w stanie pociagnac ten bajer. Karty sa poprostu za slabe(nawet SLI ma klopoty przy wlaczonym HDR).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość poli_x

@poli_x

 

W najnowszym SC nie ma obslugi SM2.0 nie dlatego ze to jest przejsciowka ale dlatego ze na poczatku gramiala obslugiwac tylko(podkreslam tylko) SM1.1 bo byla ona opracowywna dla XKloca. Pod koniec prac nad gra nVidia sypnela kasa i chciala aby wprowadzic obsluge SM3.0 wiec nie gadaj takich glupot bo ktos jeszcze uwierzy ze SM2.0 to przejsciowka. Moze najpierw poczytaj czym rozni sie od siebie SM1.1, 1.3, 1.4, 2.0 2.0a, 2.0b, 3.0 a potem snuj swoje teorie.

A co do HDR to jest to bajer, nawet fajny ale obecnie brak kart ktore sa w stanie pociagnac ten bajer. Karty sa poprostu za slabe(nawet SLI ma klopoty przy wlaczonym HDR).

1545082[/snapback]

wiem jaka jest roznica,co do HDR to nie wiem o jakiej grze mowisz ze ma problem z HDR nawet w SLI chyba w SLI GF 6200 lol ja u siebie na Far Cry przy HDR mialem 30 fps na 1024 i reszta very high

 

P.S a skąd wiesz ze NV sypneła kasą? masz dostep do głownego centrum NV i ci dali informacje ze NV sypneła kasa TYLKO po to zeby sprzedawały sie ich karty? troche smieszne są twoje gdybania tak jak moje wedlog ciebie ze 2.0 to nie wersja przejsciowa

Edytowane przez poli_x

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ja u siebie na Far Cry przy HDR mialem 30 fps na 1024 i reszta very high

 

1545096[/snapback]

ta....

tyle ze HDR we Farcry jest ch... wart

 

odpal HDR w SC3 a potem zabierz głos

 

poza tym piszesz o grafach jakie tylko na www widziales wiec przemysl czy warto uprawiac autokompromitacje

 

....dowiedziałem sie np. ze roznica miedzy 6800 GT a x800XL w doom 3 wynosi 5 fps

bo tyle mniej wiecej wynosi podczas gry (max fps to 60-bo tego pewnie nie wiesz)-chyba ze grasz w benchamrk wbudowany w gre :mur:

Edytowane przez bartezjusz

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

wiem jaka jest roznica,co do HDR to nie wiem o jakiej grze mowisz ze ma problem z HDR nawet w SLI chyba w SLI GF 6200 lol ja u siebie na Far Cry przy HDR mialem 30 fps na 1024 i reszta very high

 

P.S  a skąd wiesz ze NV sypneła kasą? masz dostep do głownego centrum NV i ci dali informacje ze NV sypneła kasa TYLKO po to zeby sprzedawały sie ich karty? troche smieszne są twoje gdybania tak jak moje wedlog ciebie ze 2.0 to nie wersja przejsciowa

1545096[/snapback]

 

Twoja wiedza mnie poraza ;)

 

A propo wyniku to jest to sredni, minimalny czy maksymalny ;)

 

A co HDR to zrob to o czym pisze Bartezjusz i zobaczymy czy nadal bedziesz taki szczesliwy z 30fps'ow w FarCry ;)

Edytowane przez sucker

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

wiem jaka jest roznica,co do HDR to nie wiem o jakiej grze mowisz ze ma problem z HDR nawet w SLI chyba w SLI GF 6200 lol ja u siebie na Far Cry przy HDR mialem 30 fps na 1024 i reszta very high

 

P.S  a skąd wiesz ze NV sypneła kasą? masz dostep do głownego centrum NV i ci dali informacje ze NV sypneła kasa TYLKO po to zeby sprzedawały sie ich karty? troche smieszne są twoje gdybania tak jak moje wedlog ciebie ze 2.0 to nie wersja przejsciowa

1545096[/snapback]

I wez tu tlumacz cos takiemu tłumokowi :mur: :mur: :mur:

Nie nikt kasa nie sypal. Ubisoft poprostu wolalo dac PS 1.1 od tak se bo zapomnieli o PS 2.0 a gdy im sie przypmnialo to juz gra byla w sprzedazy teraz wiesz. Zapomniec kazdy moze sam przyznasz. Czytajac twoje wypowiedzi stwierdzam, ze dawno takich GLUPOT nie slyszalem. Naprawde nie warto tego komentowac LOL! LOL! LOL! LOL!

Edytowane przez luki2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość poli_x

Twoja wiedza mnie poraza ;)

 

A propo wyniku to jest to sredni, minimalny czy maksymalny ;)

 

A co HDR to zrob to o czym pisze Bartezjusz i zobaczymy czy nadal bedziesz taki szczesliwy z 30fps'ow w FarCry ;)

1545121[/snapback]

sredni,minimum to 25,max to 40-45

co do HDR w Splinter Cellu to juz mowilem w 1024x748 wszystko na on i na Very High mialem 25 fps przy pontonie (jdno z bardziej wymagajacych miejsc) reszta to 30 fps po wyłączeniu HDR czyli Pixela 3.0 i ustawieniu na 1.1 fps dochodzily do 50 srednia 35-40

FAKT nie mialem x800xl w ręku wiec moze mam mało do powiedzenia ale to nie wyniki testow z pierwszej lepszej strony prawie na kazdej stronie bardziej znanej takie wyniki widac,dlatego mnie smieszy porownanie X800xl w SC3 z 6800 GT poniewaz w 6800 GT na default ustawi sie na Pixela 3.0 i mial 25 kratek ( w co nie wierze bo minimum to jakies 35 no ale szczegol a w x800xl default ustawia mu na 1.1 bo nic wiecej ta karta nie umie, dlatego zobaczyl 10 kratek roznice tylko ze w 6800 GT ustawia na 1.1 i Radeon zostaje w tyle mowie to wogole na swoim przykładzie skoro ja na 1.1 mam 35-40 kratek to na 6800 GT musi byc ponad 50 bez problemu w 1.1 a skoro x800xl ma 35 kratek to naprade jest wydajny :lol2:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość poli_x

I wez tu tlumacz cos takiemu tłumokowi  :mur:  :mur:  :mur:

Nie nikt kasa nie sypal. Ubisoft poprostu wolalo dac PS 1.1 od tak se bo zapomnieli o PS 2.0  a gdy im sie przypmnialo to juz gra byla w sprzedazy teraz wiesz. Zapomniec kazdy moze sam przyznasz. Czytajac twoje wypowiedzi stwierdzam, ze dawno takich GLUPOT nie slyszalem. Naprawde nie warto tego komentowac LOL! LOL! LOL! LOL!

1545126[/snapback]

kolejny z oddzialu NV :lol2:

 

P.S pierw sobie poczytaj tak jak kolega radził mi...jaka jest roznica miedzy 2.0 a 1.1 i dopiero wciskaj ciemnoty

Edytowane przez poli_x

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

sredni,minimum to 25,max to 40-45

co do HDR w Splinter Cellu to juz mowilem w 1024x748 wszystko na on i na Very High mialem 25 fps przy pontonie (jdno z bardziej wymagajacych miejsc) reszta to 30 fps po wyłączeniu HDR czyli Pixela 3.0 i ustawieniu na 1.1 fps dochodzily do 50 srednia 35-40

FAKT nie mialem x800xl w ręku wiec moze mam mało do powiedzenia ale to nie wyniki testow z pierwszej lepszej strony prawie na kazdej stronie bardziej znanej takie wyniki widac,dlatego mnie smieszy porownanie X800xl w SC3 z 6800 GT poniewaz w 6800 GT na default ustawi sie na Pixela 3.0 i mial 25 kratek ( w co nie wierze bo minimum to jakies 35 no ale szczegol a w x800xl default ustawia mu na 1.1 bo nic wiecej ta karta nie umie, dlatego zobaczyl 10 kratek roznice tylko ze w 6800 GT ustawia na 1.1 i Radeon zostaje w tyle mowie to wogole na swoim przykładzie skoro ja na 1.1 mam 35-40 kratek to na 6800 GT musi byc ponad 50 bez problemu w 1.1 a skoro x800xl ma 35 kratek to naprade jest wydajny :lol2:

1545140[/snapback]

 

jednak mało wiesz a co wiecej mało rozumiesz

 

napisałem o przykładowym miesjcu podczas misji w seulu (przechodzenie koło palących sie zabudowan) i w tym samym miejscu jest widoczny spadek fps na 68gt do poziomu 25 , i dokładnie w tym samym miejscu na 800xl spadek fps jest do poziomu 35

 

na przyszłosc -oszczedz sobie i zwłaszcza nam swych załosnych wniosków

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Moze najpierw poczytaj czym rozni sie od siebie SM1.1, 1.3, 1.4, 2.0 2.0a, 2.0b, 3.0 a potem snuj swoje teorie.

no wlasnie..cos odnosze wrazenie, ze mylisz PixelShader z VertexShader oraz z ShaderModel jako caloscia...kompletna bzdura powtarzana od momentu pojawienia sie gf6800 jest stwierdzenie, ze wszystko co uzyskamy przy pomocy SM3.0 , mozemy uzyskac tez na SM2.0, szcegolnie jezeli mowa jest o VS3.0 np. Vertex Textures...

 

A co do HDR to jest to bajer, nawet fajny ale obecnie brak kart ktore sa w stanie pociagnac ten bajer. Karty sa poprostu za slabe(nawet SLI ma klopoty przy wlaczonym HDR).

no i tutaj tez troche jestes w bledzie. efekt HDR jest na rozny sposob implementowany, wykorzystuje sie do tego gotowe standardy np.OpenEXR(FarCry, HL2Aftermath ), lub posluguja sie shaderami (BiA, HL2). proponuje tez troche doczytac w tej kwesti, szczegolnie w kwesti wydajnosci.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość poli_x

jednak mało wiesz a co wiecej mało rozumiesz

 

napisałem o przykładowym miesjcu podczas misji w seulu (przechodzenie koło palących sie zabudowan) i w tym samym miejscu jest widoczny spadek fps na 68gt do poziomu 25 , i dokładnie w tym samym miejscu na 800xl spadek fps jest do poziomu 35

 

na przyszłosc -oszczedz sobie i zwłaszcza nam swych załosnych wniosków

1545161[/snapback]

twoje są załosne.....np. Doom 3 roznica 5 fps :lol2: :lol2:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość poli_x

ja dopiero znowu zaczne dalej byc po stronie Ati jak wejda układy 520 bo to co pokazuje x800xl czy nawet najnowszy x800pe jest dla mnie zerem....nie lubie odgrzewaych kotletów produkcji z przed 2 lat. NV dała coś nowego w technologi 3.0 wszystko jest ładniejsze a przeciez o to chodzi bo po co sie cofać jak mozna sie rozwijać? Ati jest dobre w cenie do 500 zł poniewaz wydaje mi sie ze jak sie kupuje karte powyzej 500 zł to nie kupuje jej sie na pol roku tylko na dlozej a NV to umozliwia przy pełnym wykorzystaniu dx9.0c i SM 3.0

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

twoje są załosne.....np. Doom 3 roznica 5 fps :lol2:  :lol2:

1545168[/snapback]

 

a ile ma byc człeku o ograniczonym intelekcie skoro podczas gry (2xaa, Very high , 1280x1024) cały czas fps oscyluje wokół maksymalnych 60????

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość poli_x

a ile ma byc człeku o ograniczonym intelekcie skoro podczas gry (2xaa, Very high , 1280x1024) cały czas fps oscyluje wokół maksymalnych 60????

1545186[/snapback]

chodzi mi o to ze roznica miedzy tymi kartami w PRZYPADKU doom3 nie bedzie wynosila 5 fps tylko 15-20 fps,i kto to jest o ograniczonym intelekcie...ehh dzieciaki... chyba jak sie rejstruje na forum to jest ankietka czy masz 13 lat? i czy godzisz sie cos tam widac ze cie mama rejstrowala na forum bo ty nie masz wiecej niz 13 lat i hamuj bajere dzieciaku ok? kazdy ma własne spostrzezenia

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość poli_x

dawno nikt mnie tak nikt nie ubawił - dzisas  :mur:  :mur:

 

wygladasz mi na flustrata onaniste - a z takimi nie gadam bo sie siakos brzydzę

1545203[/snapback]

ja wiem czy z własnej głupoty fajnie sie tak cieszyc?,no fakt jak to woli

 

wracajac do tematu 6800 GT to dobry wybor pozdrawiam. ////jak dla mnie temat zamkniety na temat wydajnosci bo tu bardziej przemawia cena niz wydajnosc

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@Sulaco

 

Nie myle pojec SM i PS.

Nie napisalem PS tylko SM aby zapoznal sie w calosci z roznicami miedzy odpowiednimi standardami a potem pisal glupoty.

I nigdzie nie pisalem ze przy pomocy VS 3.0 uzyskamy to co przy VS2.0. Poczytaj wczesniejszy post ktory nawiazywal tylko iwylacznie do roznic miedzy PS3.0 a 2.0.

 

A co do HDR'a to tak jak napisales mozna go roznie implementowac i wykrozystywac na rozna sposoby. Czesto podobny efekt mozna uzyskac przy wykorzstaniu PS2.0. Jednak HDR dosc znacznie obciaza karte i spadek wydajnosci w granicach 50%(im wyzsza rozdielka tym wiecej oraz jak napisales w zaleznosci od implementacji % moge wrastac lub malec) jest spdakiem znaczacym i zauwazalnym.

Dodam ze efekty podobne do HDR sa dostepne w demku(zapomnialem nazwy bo nie siedze na swoim kompie), ktore wyglda bardzo ladnie i wystarczy do odpalenia tego dema karta zgodna z SM2.0.

 

@poli_x

Gdzie napisalem o D3 i roznicy w fps? Wiadomo ze D3 to gra lubiaca karty nVidi(glowny sponsor) tak samo jak wiadomo ze HL2 lubi karty Ati(glowny sponsor).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość poli_x

@poli_x

Gdzie napisalem o D3 i roznicy w fps? Wiadomo ze D3 to gra lubiaca karty nVidi(glowny sponsor) tak samo jak wiadomo ze HL2 lubi karty Ati(glowny sponsor).

1545229[/snapback]

nie nie,ty nie pisałes nic takiego kolega wyzej pisał :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach




×
×
  • Dodaj nową pozycję...