Skocz do zawartości
lead

Geforce 6600gt - Slabszy Niz Oczekiwalismy ?

Rekomendowane odpowiedzi

Po pierwsze Piła nic nie przepisał od digit-life, aż taki głupi nie jest. Jaką praktykę? Pamiętam jego posty w innym wątku, co z tego, że w teście w 3DMarku2001 o nazwie 'Fill Rate Multitexturing' przepustowość jest jak dla 4 potoków? co z tego? Piła wypowiedział się w artykule o tym, zresztą ja od siebie dodam, że dużo wymagacie od programu z 2000 roku, czy AIDA32 pokazywała też poprawne informacje o karcie graficznej, a była aktualizowana co chwila w tamtym czasie? - NIE.

 

Co tu dużo gadać, nawet sam serwis nvision.pl przyznał, że seria GF 6600 posiada 8 potoków renderujących.

1396642[/snapback]

 

chyba sobie żartujesz - ja badałem wydajność fill rate na specjalnym programie Fill Rate Tester. Ale ty zapewne nawet o nim nie słyszałeś. Przykro mi, ale ja wydajności kart graficznych na podstawie 3dmarka nie określam.

 

AIDA pokazywała jeszcze różne inne babole.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

widze ze znowu ostra kłutnia sie wywoązała .... byle by znowu ktoś nie opuścił naszych szeregów ...

 

ja powiem tak .... jeżeli ma sie kase na tego pseudo 8-śmio potokowca to lepiej zbierać dłużej i meczyć sie na starej karcie a kupić naprawde dobra karte pokroju x800xl albo coś.... wiem popadam w skrajności ale wygalda na to ze NV znowu zrobiła sobie ze mnie (i innych posiadaczy serii 6600) najzwyczajniejsze jaja .... :x

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

widze ze znowu ostra kłutnia sie wywoązała .... byle by znowu ktoś nie opuścił naszych szeregów ...

 

ja powiem tak .... jeżeli ma sie kase na tego pseudo 8-śmio potokowca to lepiej zbierać dłużej i meczyć sie na starej karcie a kupić naprawde dobra karte pokroju x800xl albo coś.... wiem popadam w skrajności ale wygalda na to ze NV znowu zrobiła sobie ze mnie (i innych posiadaczy serii 6600) najzwyczajniejsze jaja .... :x

1397022[/snapback]

NVIDIA nigdzie nie zapewnia o 8 potokach - tą teorie dorobili redaktorzy Digit-life - a inni powielają ich błąd :angry:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja was nadal nie rozumiem - jakie tak naprawde ma znaczenie ile ta karta ma potokow skoro wszystko swietnie dziala?

 

Jak powszechna swiadomoscia bylo, ze to 8-potokowiec, to sie wszyscy w zachwytach rozplywali - teraz jak sa watpliwosci to nagle 6600 zostalo ogloszone gownem przez aklamacje...

 

Qlawy - wolniej Ci gry zaczely chodzic, jak sie dowiedziales, ze to nie do konca 8-potokowiec?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja was nadal nie rozumiem - jakie tak naprawde ma znaczenie ile ta karta ma potokow skoro wszystko swietnie dziala?

 

Jak powszechna swiadomoscia bylo, ze to 8-potokowiec, to sie wszyscy w zachwytach rozplywali - teraz jak sa watpliwosci to nagle 6600 zostalo ogloszone gownem przez aklamacje...

 

Qlawy - wolniej Ci gry zaczely chodzic, jak sie dowiedziales, ze to nie do konca 8-potokowiec?

1397107[/snapback]

Ja nie przecze - ta karta jest dobra(sam mam 6200@6600GT). Przyszlosc gier to shadery a nie teksturowanie więc bedzie w grach bardzo dobrze. Nie chodzi o to zeby uswiadomic ludziom ze ta karta jest slaba- chodzi tylko o to że nazywanie jej 8 potokowcem jest błędem..... i tyle :razz:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja nie przecze - ta karta jest dobra(sam mam 6200@6600GT). Przyszlosc gier to shadery a nie teksturowanie więc bedzie w grach bardzo dobrze. Nie chodzi o to zeby uswiadomic ludziom ze ta karta jest slaba- chodzi tylko o to że nazywanie jej 8 potokowcem jest błędem..... i tyle  :razz:

1397120[/snapback]

Ja to wiem, Ty to wiesz, teraz przetlumacz to Qlawemu i jemu podobnym ;)

 

Po prostu nie lubie takiego krzykactwa i stwarzania blednego wrazenia, ze to slaba karta.

 

Takie male OT: GF4 tez ma 4 potoki, a powszechnie jest uwazany za najlepsza konstukcje nVidii i rewelacyjna karte. Ba, nadal sobie swietnie radzi :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Panowie...tak naprawde to tylko NV wie co kryje się w rdzeniu NV43...Wszystkie inne opinie to tylko przypuszczenia...Faktem jest że układ NV43 na 99% nie ma PEŁNYCH 8 potoków...Czy jednak jest to jakiś wielki powód by zaraz bluzgać NV za to że NV43 ma architekturę taką a nie inną????jak już wczesniej ktoś zauważył NV NIGDZIE nie podawała że NV43 ma 8 potoków....

Nie rozumiem natomiast stwierdzenia że Nvidia zrobiła sobie JAJA z posiadaczy GF6600....

Wiem że niektórzy wola ATI ale to nie jest powód żeby jechac po konkurencji i wykorzystywac do tego każdą nadarzającą się okazję...

 

Zresztą jak słusznie zauważył costi-jakie to ma znacznie ile karta ma potoków?????Czy komuś przez to że się dowiedział że nie ma PEŁNYCH 8 zaczęły wolniej działac gry i benchmarki??????!!!!!Czy w sytuacji gdy porównujemy 2 karty i jedna ma 12 pokotów a druga 16 i ta pierwsza jest szybsza to od razu zostaje skreslona bo ma 12 a nie 16 potoków??????

LICZY SIĘ WYDAJNOŚĆ!!!!Szczerze to nawet jakby taki G70 albo r520 miały po 4 potoki a byłyby 2 razy szybsze od dzisiejszych kart High-End to by mnie to gów... obchodziło....

 

Natomiast co do opinii że x700 jest stabilniejszy (cokolwiek to ma znaczyć)itp. to zapodaje kilka linków z testami gdzie jest podany MIN FPS...

FAR CRY

http://www.xbitlabs.com/articles/video/dis...4-27gpu2_8.html

http://www.xbitlabs.com/articles/video/dis...4-27gpu2_9.html

Splinter Cell:PT

http://www.xbitlabs.com/articles/video/dis...-27gpu2_16.html

Hitman3

http://www.xbitlabs.com/articles/video/dis...-27gpu2_19.html

Thief3

http://www.xbitlabs.com/articles/video/dis...-27gpu2_20.html

DeuxEx:invisible war

http://www.xbitlabs.com/articles/video/dis...-27gpu2_21.html

Manhunt

http://www.xbitlabs.com/articles/video/dis...-27gpu2_22.html

Vampire:Bloodlines

http://www.xbitlabs.com/articles/video/dis...-27gpu2_23.html

IL-2 Sturmowik

http://www.xbitlabs.com/articles/video/dis...-27gpu2_24.html

Microsoft flight simulator

http://www.xbitlabs.com/articles/video/dis...-27gpu2_26.html

Colin2004

http://www.xbitlabs.com/articles/video/dis...-27gpu2_28.html

C&CGenerals:zero hour

http://www.xbitlabs.com/articles/video/dis...-27gpu2_29.html

Warhammer:40000 Dawn of war

http://www.xbitlabs.com/articles/video/dis...-27gpu2_30.html

Rome:Total War

http://www.xbitlabs.com/articles/video/dis...-27gpu2_32.html

 

Tutaj jeszcze NFS2

http://www.hardocp.com/article.html?art=NzMzLDg=

 

Riddick

http://www.hardocp.com/article.html?art=NzMzLDk=

 

W wielu przypadkach min fps jest wyższy niż na Radkachx700 które ponoc tak super trzymają min ilość ramek na sekunde..

Podumowując GF6600GT jest bardzo dobrą kartą(jak na tą cene), mimo wszystko minimalnie lepszą-ale lepszą od x700pro ale jak ktoś za 800 zł spodziewa sie niewiadomo jakiej wydajności to już jego problem...Tak samo można będzie dyskutowac gdy wyjdą G70 i r520....Też moze ktos napisac że r520 jest słabszy niż oczekiwał bo w DOOM3 w 1600x1200 uzyskuje ``tylko``100 klatek a nie 120...

 

Pozdr.

 

PS.Bardzo dobry art focus_.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Iiiii.... art może i fajny. Nawet można uwierzyć w to co dowodzą autorzy. Spieracie się niczym baby na targu, ale co to zmienia? Póki mi się gry nie tną i wyglądają ładnie to jest OK - średnio mnie interesuje co tam jest w środku jak działa :P Gdybym miał kasę to bym kupił X800, a od X700 to IMHO 6600GT jest lepszy. Co z tego, że X700 ma 8 potoków i 6 vertxów jak daje to mniej FPS'ów w 80 czy 90 % testów które czytałem? (żeby nie było jak ktoś poda te odwrotne też chętnie poczytam) To że STAR ma większy silnki od Ploneza nie znaczy że jest sybszy :) Swoją drogą może zrobi ktoś podobny test dla Radków :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ej panowie co ja stałem sie alegriam kretyna?

 

dobra nieważe bo skończe jak model3100 czy jak mu tam było :D

 

nie gry brykają tak jak brykały

 

tylko kurde zeźliłem sie troszke ... a poza tym pisało ze 6600 ma 8 ptoków :P no chyba ze musze zrobić wypad do okulisty ale to dość mozliwe .... :D :D :D

 

teraz stwierdzam ze nie ma sensu narzekac ... zawsze mogłem ciagnać dalej na moim radku 9200 :D albo na rivie .... albo co najgorsze na itnelu 740 .. brr....

 

ale swoją droga ciekawe jakby sie zachowywała ta karta jakby miała 8 potoków w znaczeniu yy... tradycyjnym? no wiecie o co chodzi ...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Qlawy - nie, ale najbardziej histerycznie zareagowales na art focusa ;)

 

A NVidia naprawde nie podala ile 6600GT ma potokow - recenzenci w jakims portalu tak napisali i jakos tak sie przyjelo... :)

1397548[/snapback]

 

http://www.nvidia.com/page/geforce_6600.html

 

czy ma 8x1 czy ma 4x2 i tak za ta cene jest super ... (jak dla mnie :D )

polecam

 

http://www.extremetech.com/article2/0,1558,1738299,00.asp

 

przeciez napisane jest czarno na bialym i nie tylko tam - w kazdym serwisie sytuacja wyglada identycznie czy to serwis polski czy zagraniczny - nic dodac nic ujac ...

Edytowane przez masin

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

przeciez napisane jest czarno na bialym i nie tylko tam - w kazdym serwisie sytuacja wyglada identycznie czy to serwis polski czy zagraniczny - nic dodac nic ujac ...

1397756[/snapback]

sory co jest napisane czarno na bialym?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Patrzac na linki Domella (x-bit labs) dziwi mnie jedna rzecz - porownujac 6600GT na AGP i PCI-X ta pierwsza ma mniejsze spadki fps i ogolnie jest wydajniejsza (czasem 2x bardziej). Chyba musialem cos przeoczyc w metodach testow bo to jest conajmniej dziwne (poza tym to chyba nie wina proca Intela) <_<

Edytowane przez GregK

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

tyle ze 1-2 fps zawsze przyjmowane jest jako margines bledu natomiast spadki w rozdzialkach 1280x1024 moga byc spowodowane 128mb ram na karcie co nie zmienia faktu ze sa - natomiast widze ze niektorzy maja tendencje do lekkiego przesadzania

 

ja podtrzymuje swoja teorie ze sa to porownywalne karty klasowo i cenowo i od dawien dawna ani ATI ani NV nie udalo sie zrobic produktu ktory w danej klasie w 100% deklasyfikowal by swojego rywala

 

a co do gwozdzia do trumny i topicu ze "oczy wypadaja , zeby zolkna , ktos piwo wypija z lodowki :)" to jest to pojecie wzgledne bo moge dokladnie to samo napiasc o ATI u mnie jest okej a jezeli ktos ma problemy ze wzrokiem to to forum nie pomoze mu bardziel niz okulista :) blah blah ;)

Edytowane przez masin

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

chyba sobie żartujesz - ja badałem wydajność fill rate na specjalnym programie Fill Rate Tester. Ale ty zapewne nawet o nim nie słyszałeś. Przykro mi, ale ja wydajności kart graficznych na podstawie 3dmarka nie określam.

1396647[/snapback]

Aha... Ty określasz wydajność karty na podstawie specjalnego programu Fill Rate Tester. Wszystko jasne.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Aha... Ty określasz wydajność karty na podstawie specjalnego programu Fill Rate Tester. Wszystko jasne.

1401368[/snapback]

Nie. Ja okreslam wydajnosć kart na podstawie co najmniej 15 gier.

 

Dziękuję za uwagę

 

Pozdrawiam

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Aha... Ty określasz wydajność karty na podstawie specjalnego programu Fill Rate Tester. Wszystko jasne.

1401368[/snapback]

lepsze to niż 3d smarkus......... :mur: :mur: Pozatym to tylko ułamek recenzji focusa więc LOL dla Ciebie B)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

lepsze to niż 3d smarkus......... :mur:  :mur: Pozatym to tylko ułamek recenzji focusa więc LOL dla Ciebie B)

1401415[/snapback]

Wiesz, LOL to teza jakoby filrate tester był lepszym testem niż smarki. Obydwa mają się do rzeczywistości jak pięść do nosa. Dla mnie liczą się dwie rzeczy (w kolejności ważności):

1. Jakość, wydajność i dostępność sterowników do linuksa. I nie chodzi tylko o 3D (bo to jako tako jest obsługiwane przez ATI), ale o sterowniki 64-bit, o akcelerację 2D, o rozszerzenia XRender i composite. ATI pod tym względem jest kilka lat do tyłu za NV i nawet nie kryje, że ma w...... "głębokim poważaniu" ten rynek.

2. Wydajność w grach (i pod linuksem i pod windows). Ja oczywiście 15 gier nie posiadam, te skromne 5 czy 6 mi wystarczy. I wszystkie chodzą płynnie na full detalach. Zresztą tak samo było na poprzedniej mojej karcie (9800SE@Pro), ale zmarła śmiercią tragiczną.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wiesz, LOL to teza jakoby filrate tester był lepszym testem niż smarki. Obydwa mają się do rzeczywistości jak pięść do nosa.

1401689[/snapback]

Fillrate tester jest lepszy do badania wydajnosci fillrate niz 3d marki.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wiesz, LOL to teza jakoby filrate tester był lepszym testem niż smarki. Obydwa mają się do rzeczywistości jak pięść do nosa. Dla mnie liczą się dwie rzeczy (w kolejności ważności):

1. Jakość, wydajność i dostępność sterowników do linuksa. I nie chodzi tylko o 3D (bo to jako tako jest obsługiwane przez ATI), ale o sterowniki 64-bit, o akcelerację 2D, o rozszerzenia XRender i composite. ATI pod tym względem jest kilka lat do tyłu za NV i nawet nie kryje, że ma w...... "głębokim poważaniu" ten rynek.

2. Wydajność w grach (i pod linuksem i pod windows). Ja oczywiście 15 gier nie posiadam, te skromne 5 czy 6 mi wystarczy. I wszystkie chodzą płynnie na full detalach. Zresztą tak samo było na poprzedniej mojej karcie (9800SE@Pro), ale zmarła śmiercią tragiczną.

1401689[/snapback]

Ja w ogóle nie rozumiem o co tutaj w ogóle poszło. Ja odczytałem Twoją wiadomość w stylu:

 

"Focus ty testujesz karty graficzne w Fill RAte Testerze LOL zamiast grach, etc"

 

dlatego była taka moja reakcja i najprawdopodobniej Opsona.

 

Zaś w cytowanej przez Ciebie wypowiedzi mnie chodziło o to (tak jak exec mówił), że testy Fill Rate w 3dMarkach są niczego nie warte. I dlatego używam Fill RAte testera do okreslania wydajności Fill RAte, ale nie wydajności kart graficznych.

 

Zaś co do testów gier pod Linuxa - niestety, ale ja się takimi nie zajmuje :)

 

Mam nadzieję, że już wszystko jasne :)

 

Pozdrawiam

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

Ładowanie



×
×
  • Dodaj nową pozycję...