Skocz do zawartości
lead

Geforce 6600gt - Slabszy Niz Oczekiwalismy ?

Rekomendowane odpowiedzi

I jeszcze odnosnie filmow-mi osobiscie wydaje sie ze filmy wygladaja tak samo/lepiej niz na 9800 :P

1234136[/snapback]

ba wszystkich kartach z przetwornikiem dac 400mhz x2 gry i winda wyglada dlamie tak samo:/

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ba wszystkich kartach z przetwornikiem dac 400mhz x2 gry i winda wyglada dlamie tak samo:/

1234197[/snapback]

RAMDAC to tylko jeden z mniej ważnych elementów tyczących się jakości obrazu. Najważneijsze są przetworniki zamontowane na karcie. Jakby sam RAMDAC był jedynym ważnym elementem to każdy GF FX 5600 miałby najwyższej jakości obraz, a tak nie było. I w zależności od producenta jakość obrazu różniła się i to znacznie.

 

Pamiętam jeszcze jak ktoś robił moda na GF 2 (albo 4 już nie pamiętam), dzięki któremu ominiecie przetworników dało wyraźną poprawę jakości obrazu. Jak wiemy przetwornbiki filtrują obraz również z zakłóceń przez co możemy wynikowo otrzymać gorszą jakość obrazu.

 

Najważniejsze są elementy karty któe znajdują się między rdzeniam a wyjściem VGA.

Karta z RAMDACiem 400 MHz z powodzeniem może zaprezentować gorszą jakość obrazu niż karta z RAMDACiem 350 MHz

 

Pozdrawiam

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

RAMDAC to tylko jeden z mniej ważnych elementów tyczących się jakości obrazu. Najważneijsze są przetworniki zamontowane na karcie. Jakby sam RAMDAC był jedynym ważnym elementem to każdy GF FX 5600 miałby najwyższej jakości obraz, a tak nie było. I w zależności od producenta jakość obrazu różniła się i to znacznie.

 

Pamiętam jeszcze jak ktoś robił moda na GF 2 (albo 4 już nie pamiętam), dzięki któremu ominiecie przetworników dało wyraźną poprawę jakości obrazu. Jak wiemy przetwornbiki filtrują obraz również z zakłóceń przez co możemy wynikowo otrzymać gorszą jakość obrazu.

 

Najważniejsze są elementy karty któe znajdują się między rdzeniam a wyjściem VGA.

Karta z RAMDACiem 400 MHz z powodzeniem może zaprezentować gorszą jakość obrazu niż karta z RAMDACiem 350 MHz

 

Pozdrawiam

1234658[/snapback]

no dobrze.. mozliwe. tak czy inaczje fx 5700 maiał jak dlamie ta samą jakos obrazu co ten 6600gt a czy czasem 5600 iemiał przetwornika 350mhz?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Najgorzej, ze tylko marketing - liczba gier obslugujacych SLI jest malutka :(

no jezeli tak ma dzialac marketing to ja sie b. ciesze :P

przytoczona lista jest tylko przykladem zrobionym na sile, spokojnie moge znalezc gry ktore maja problemy z fsaa i co? tez stwierdzisz, ze fssa to marketing...jezeli sie chce do dziure mozna znalezc wszedzie...

btw: riddick b.ladnie smiga na sli. faktem jest, ze nie w trybie 2.0++, ale i tak wieksze korzysci sa z zalaczenia fsaa i aniso niz tylko z wygladzonych cieni - 1280x1024 fsaa 4x , aniso 8x - 32fps bez sli, z sli 58fps. marketing?

 

Bariera jest to, ze obsluge SLI trzeba wbudowac w engine gry - inaczej kupa. Jak dla mnie poroniony pomysl...

nie. obsluga sli nie musi byc zaszyta w kodzie. bariera jest umiejetnosc pisania "czystego" kod- np.nfsu2 nie dziala dobrze nawet na "zwyklych" kartach tak wiec trudno liczyc na to, ze odpali na sli...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

no dobrze.. mozliwe. tak czy inaczje fx 5700 maiał jak dlamie ta samą jakos obrazu co ten 6600gt a czy czasem 5600 iemiał przetwornika 350mhz?

1235549[/snapback]

FX 5600 miał 2 x 400 MHz. MIałem swego czasu też Gigabyte GF FX 5700 i jak dla mnie miał on kiepską jakość obrazu w porównaniu do Radeona 9500. Radeon 9550 (Sapphire) miał delikatnie gorszy orbaz, ale nadal lepszy niż FX 5700. Ale jak mówię RAMDAC to tylko jeden z mniej ważnych elementów odpowiedzialnych za wyświetlanie obrazu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

FX 5600 miał 2 x 400 MHz. MIałem swego czasu też Gigabyte GF FX 5700 i jak dla mnie miał on kiepską jakość obrazu w porównaniu do Radeona 9500. Radeon 9550 (Sapphire) miał delikatnie gorszy orbaz, ale nadal lepszy niż FX 5700. Ale jak mówię RAMDAC to tylko jeden z mniej ważnych elementów odpowiedzialnych za wyświetlanie obrazu.

1235840[/snapback]

hmm ja miałem 5700 leadteka. a co do zasady wyswietlania obrazu to nie zaprzeczam ze masz racje ja sie na tym nieznam tak czy inaczj nie widziałem róznicy pomidzy 6600gt a fx 5700

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

hmm ja miałem 5700 leadteka. a co do zasady wyswietlania obrazu to nie zaprzeczam ze masz racje ja sie na tym nieznam tak czy inaczj nie widziałem róznicy pomidzy 6600gt a fx 5700

1235902[/snapback]

A jaki masz monitor? Wygląda na to, że nie najwyższych lotów skoro nie widziałeś różnicy. :unsure:

Na wysokiej klasy 17'tkach (Diamondtron, Trinitron) w rozdzielczości 1280 x 1024 już bardzo dużo widać.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Faktem jest, że dla mnie i prawdopodobnie dla większości ludzi SLI to tylko ciekawostkia. Nie wydam 5000zł na karty graficzne które za rok będą przestarzałe. 2k to już jest bardzo dużo, ale z drugiej strony tylko na polskie realia... :(

W każdym razie historia pokazuje że wieloprocesorowe systemy graficzne to droga do nikąd, ze względu na koszty produkcji.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Faktem jest, że dla mnie i prawdopodobnie dla większości ludzi SLI to tylko ciekawostkia. Nie wydam 5000zł na karty graficzne które za rok będą przestarzałe. 2k to już jest bardzo dużo, ale z drugiej strony tylko na polskie realia... :(

a to juz inna baja i sensu czy bezsensu jakiegos rozwiazania nie mozna do niej wrzucac...

 

W każdym razie historia pokazuje że wieloprocesorowe systemy graficzne to droga do nikąd, ze względu na koszty produkcji.

no tu sie nie zgodze. nie bede przytaczal przykladow z podworka cpu, ale jak widac rozwiazania wieloprocesorowe(kartowe) maja swoja przyszlosc, takze koszt produkcji karty z dwoma gpu jest nizszy niz dwoch kart na jednym gpu, obie firmy maja (beda miec) w swojej ofercie takie rozwiazania, dla nich taniej wychodzi wladowanie np.2 lub 4 gpu niz projektowanie od zera jakiegos rdzenia lub dokladanie w nieskonczonosc potokow....rozwiazania wieloprocesorowe/rdzeniowe to imho wlasnie przyszlosc....

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale to slepa uliczka - walac wiecej GPU zwiekszasz tylko moc obliczeniowa. Nie dodajesz zadnych nowych technologii, nie jestes w stanie ulepszyc obslugi starych...

1236148[/snapback]

niekoniecznie...obecnie nv4x(posluze sie przykladem ukladu nvidii, gdyz ati na dzien dzisiejszy imho nic ciekawego nie oferuje) wybiega troche w przyszlosc, a jedynym jego "problemem" moze byc jego moc - SM3.0, duza programowalnosc gpu to imho gwarantuje zycie tego ukladu na najblizsze 1,5 roku zanim nie pojawi sie longhorn z SM4.0, a moze nadal bedzie to "tylko" SM3.0?ciekawe jak bedzie wygladal pulpit nowych okienek z SM3.0 :) . do tego czasu spokojnie moga trzymac wysoki poziom wydajnosci dokladajac gpu/rdzenie...a potem moga juz tylko to rozwijac...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Musze się zgodzić, ze technologiczne NV40 wybiega troszkę w przyszłość i jest nowocześniejszy od R420, ale czy na razie z tego skorzystałeś? Pewnie powiesz HDR, ale nie dziękuje, poczekam na szybsze karty. Sprawdzałem testy nawet na SLI Far-Cry sie tnie. Ja swoją kartę mam już jakieś 5 miesięcy i gdybym kupił NV40, z SM3.0 skorzystałbym tylko w 1 grze, w którą grałem może kilka godzin. Ponadto X800 wcale nie jest w tej grze wolniejszy, mimo iż nie obsługuje SM3.0. Natomiast z wyższej wydajności korzystam znacznie więcej ;) Dokładanie kolejnych rdzeni owszem, starczyłoby na jakiś rok może nawet dwa, ale ma to swoje wady. SLI ciągnie 2x więcej prądu i kosztuje ponad 2x tyle :lol: A korzyści? W sprzyjających wiatrach 75% ale dużo gier w ogóle nie ma nie odnosi żadnych korzyści z SLI. W maju tego roku swoją premierę będzie miał r520 za 3 miesiące po premierze wyląduje w moim komputerze.(chyba że NV coś ciekawego wymyśli) Myślę, że nawet do tego czasu nie będzie gier realnie czerpiących korzyści z SM3.0, więc dla mnie wyższość technologiczna NV40 nie była żadnym argumentem za NV40, i jak sie okazuje całkowicie słusznie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Majdan-ale wez pod uwage to, że zdecydowana większość ludzi(przynajmniej w Polsce)kupując karte -nawet klasy GF6600GT/Rx700pro-ma zamiar na niej ``męczyć``się przez conajmniej rok czy półtora.

Dlatego większośc-mając do wyboru kartę lepszą i nowocześniejszą od konkurencji wybiera własnie tę nowocześniejsz.

Trudno się zatem dziwić olbrzymiej popularności kart GF6600GT(szczególnie)i GF6800 oraz GF6800GT kosztem R9800pro czy Rx800pro a czasem nawet X800XT-który jednak jest nieco szybszy od GF6800GT.

Nawet na tym przykładzie widac to doskonale-wielu użytkowników nawet mając do wyboru nieco wydajniejszego dziś X800XT i GF6800GT decyduje sie wybrac GF6800GT.

 

Ty natomiast sam napisaleś że 3 miechy po premierze r520 pewnie będziesz go miał czyli Ciebie ta sytuacja nie dotyczy.

Jednak nie każdy moze sobie pozwolić na kupno nowiutkiej karty za 2500zł co pół roku.....

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Co do 6600GT to sytuacja tej karty jest troszkę inna. ATI w tym segmencie nie ma nic lepszego, NV bije konkurentki ATI prawie pod każdym względem. Co do 6800GT i X800XT to wątpię, aby w przyszłości na tej karcie lepiej sie grało niż na X800XT, możliwe, że w gry specjalnie napisane pod te architekturę i niezoptymalizowane pod ATI, czyli dokładnie takie jak Doom3. Ale generalnie wątpię, aby użytkownicy 6800GT mieli więcej klatek przy takiej samej jakości obrazu niż na X800XT. 3Dmark05 ma mierzyć wydajność kompów w przyszłych grach, które sie pokażą pod koniec tego roku i na początku przyszłego. W FPS jakoś nie widać tej przewagi technologicznej.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A jaki masz monitor? Wygląda na to, że nie najwyższych lotów skoro nie widziałeś różnicy.  :unsure:

Na wysokiej klasy 17'tkach (Diamondtron, Trinitron) w rozdzielczości 1280 x 1024 już bardzo dużo widać.

1235950[/snapback]

masz racje wysokich lotów to on nie jest... tak czy inaczje nie widze róznicy:P no miedzy riva tnt2 która miałem chwilowo juz widziłem...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Możliwe że na X800XT będzie się grało tak jak na GF6800GT w przyszłości ale wybierając tę kartę napewno nikt nie straci a zyskac może....

Co do 3dMaków to mnie one nie obchodzą-FX-y też zasuwały w wersji 03 łeb w łeb z Radkami i co???W grach pod DX9.0 cięły jak niewiem...Szczerze wątpie czy 3dmark 05 pokazuje rzeczywistą wydajnosc w przyszłych grach 3d...Ostatnio to zrobiły się zawody ``kto lepiej zoptymalizuje stery``...

Co do optymalizacji w grach to HL2 był ``robiony`` pod ATI a jakoś GF-y 6xxx radzą sobie niewiele gorzej niż Radki....

 

Co do GF6600GT to się zgadzam-ATI nie ma nic lepszego i w miare godnego w tej cenie na AGP...Zresztą w przedziale kart 800-1600 zł ATI praktycznie nie istnieje....Teraz jeszcze dostępne są GF6600 na AGP które są lepszym wyborem od R9600xt w podobnej cenie....

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

HE WSZYSCY TYLKO TE PS3, ALE ONE DAJE DUZO TO WIEM W PRZYSZŁOSCIE ALE CO Z TEGO, JESLI JEST NIE DOPRACOWANE? ZAJOMEMU NA 1024RAMACH, 2800ATHLON I GF6800GT RIDICH SIE NA PS2+ MULIŁ, WIEC UWAZAM PS3 JAKO TAKI OTO GRATISIK, DUPERELKA

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

haaa...a jaka karta nie muli na PS2++?????????????

I wcale nie chodzi o SM3.0!!Przecież architektura karty to nie tylko wsparcie dla którejś z wersji bibliotek DX....

Obecnie prawie żadna gra nie obsługuje SM3.0 a jakoś GF-y radza sobie conajmniej tak samo a czasem lepiej od Radków bez wykorzystywania SM3.0 mimo iż są dużo niżej taktowane....

 

 

PS.Jakby to była taka duperelka to ATI nie rozgłaszałoby dumnie że r520 bedzie mial wsparcie SM3.0...

Edytowane przez Domell

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

9800xt nie opłaca sie zmienic na 6600gt ale na 6800gt to juz inna sprawa..

Domell--> ale chodzi o to, ze ati zapewne bedzie je miało odpowiednio dopracowane, tak jak to kiedys powiedział przedstawiciel ati, ze oni wolą dopracowac/udoskonalac niz nowsc niedopracowaną wprowadzac

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

(...)

Obecnie prawie żadna gra nie obsługuje SM3.0 a jakoś GF-y radza sobie conajmniej tak samo a czasem lepiej od Radków bez wykorzystywania SM3.0 mimo iż są dużo niżej taktowane....

(...)

1237384[/snapback]

Jasne :lol: To by znaczyło że GF'y są znacznie szybsze. Co jest oczywiście nieprawdą, najszybszą obecnie kartą jest X850XT PE.(oczwiście mam na myśli granie z FSSA i AF) A co od SM 3.0, łatwo można sprawdzić co daje w 3Dmarku05 i FarCry. Co ciekawe ati jest tam szybsze :lol:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

9800xt nie opłaca sie zmienic na 6600gt ale na 6800gt to juz inna sprawa..

Domell--> ale chodzi o to, ze ati zapewne bedzie je miało odpowiednio dopracowane, tak jak to kiedys powiedział przedstawiciel ati, ze oni wolą dopracowac/udoskonalac niz nowsc niedopracowaną wprowadzac

1237529[/snapback]

A NV to nie wydaje dopracowanych produktów? A NV30!? Zobacz jak karta sie dobrze trzyma, shadery 2.0+, znacznie bardziej przyszłościowe od przestarzałych shaderów 2.0 w r300.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ediee..

hehe-jasne, bo co miał powiedziec...Weż jednak pod uwagę to że zapewne w NV48 SM3.0 też będzie dopracowany-bardziej niż w NV40....

 

Majdan-no to to wiem że jest tam szybsze-wystarczy porównac taktowanie 400mhz vs. 540mhz....I nie wyskakujcie mi z porównaniem AMD vs.Intel bo to zupełnie inna sytuacja....jakby chodziło o to żeby liczyłaby się tylko ``surowa`` wydajnośc to ATI czy NV mogłbyby wypuścić r480 czy NV40 w technologii 65nm taktowane po 700mhz z 32 potokami+pamiątki 3ghz i by było git....

A konkretnie-mam na myśli architekture NV40..Bo ta jako sama w sobie jest bardziej przyszłościowa i wydajniejsza..należy też pamietac że jest to nowy układ i jeszcze można z niego sporo wycisnąc...r480 to natomiast któryś z kolei lifting(co nie zmienia faktu że bardzo udany)r300...

NV30 i NV35 to gnioty-o tym każdy wie(a przynajmniej powinien :razz: )tak że tutaj nie ma co się nad nimi rozwodzic...

Ale pomysł był bardzo dobry tylko poprostu NV skopała Shadery i tyle....

Co do 3dmarków to już powiedziałem co myśle-jakoś nie lubie w nie grać.... :)

 

Pozdro...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Majdan-no to to wiem że jest tam szybsze-wystarczy porównac taktowanie 400mhz vs. 540mhz....I nie wyskakujcie mi z porównaniem AMD vs.Intel bo to zupełnie inna sytuacja....

No dobrze ale co to obchodzi konsumenta? R420 jest wykonany w lepszej technologi i dlatego ma wyższe taktowanie. A jako że ma mniej tranzystorów koszty produkcji są porównywalne. Co mnie obchodzi czy chip będzie miał 600milionów tranzystorów i taktowanie 400MHz czy 300milionów i taktowanie 700MHz jeśli wydajność i rozpraszanie ciepła będą identyczne bądź bardzo podobne?

jakby chodziło o to żeby liczyłaby się tylko ``surowa`` wydajnośc to ATI czy NV mogłbyby wypuścić r480 czy NV40 w technologii 65nm taktowane po 700mhz z 32 potokami+pamiątki 3ghz i by było git....]

Proces 65nm jest jeszcze bardzo niedopracowany i wykonanie takich chipów byłoby niemożliwe. Pamięci 3GHz też nie ma, najszybsze są chyba samsungi 1.2ns

A konkretnie-mam na myśli architekture NV40..Bo ta jako sama w sobie jest bardziej przyszłościowa i wydajniejsza..

Pozdro...

1237575[/snapback]

A kogo obchodza potencjalne możliwości architeORT: ORT: ORT: ktury? Liczy sie to co oferuje w obecnej postaci. Potencjalne możliwości architektury są ważne raczej dla firm niż dla konsumentów. Przykład? ATI w sierpniu 2002roku wprowadziło

r300 i do teraz wszystkie produkty to tylko liftingi tej architeORT: ORT: ORT: ktury.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Co do taktowania to chodziło mi o to ze ATi teraz już raczej nie będzie miało tech. LOW-K a jak widac na przykładzie technologii 110nm bez niej jakoś nie bardzo ich układy znoszą taktowanie w okolicach 500mhz...Dlatego ryzykowne przejście z 110 na 90nm w r520 wynika poniekąd z konieczności bo jak wiadomo r520 to w większości architektura r420 +SM3.0 czyli żeby osiągnąc większy wzrost wydajności ATI musi ``pójść`` w zegary.....

 

co do tech.65nm to dałem tylko przykład że gdyby liczyła się tylko wydajność i MHZ to obie firmy zamiast opracowywać nowe technologie poprostu podbijały by zegary i dodawały potoki....

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

co do tech.65nm to dałem tylko przykład że gdyby liczyła się tylko wydajność i MHZ to obie firmy zamiast opracowywać nowe technologie poprostu podbijały by zegary i dodawały potoki....

1237632[/snapback]

A co ATI robi od sierpnia 2002? NV niestety tak nie mogła bo wypuściła gniota w postaci NV30, więc musiała szerzej zmodyfikować swój układ.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

Ładowanie



×
×
  • Dodaj nową pozycję...