Skocz do zawartości
lead

Geforce 6600gt - Slabszy Niz Oczekiwalismy ?

Rekomendowane odpowiedzi

A ja jestem ciekawy jak by się w kompie sprawował układ 2x2 6600GT. Zdaje się, że asus wydał już kartę z podwójnym 6600GT, ktorą mozna dodatkowo łączyć w parę. 4 układy 6600GT chyba w tej chwili są nie do pobicia. Ciekawe, czy gdzieś już to przetestowali ....

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gigabyte był pierwszy. Teraz to chyba i asus i xxxx już mają.

 

Dwuprocesorowy Asus EN6600GT

Kolejną po GIGABYTE GV-3D1 kartą z dwoma procesorami GeForce 6600 GT, może być produkt ASUSa EN6600GT. Zdjęcia takiej karty zamieścił właśnie Tajwański serwis Digital-Info.Net. Karta Asusa ma dla odmiany dwa wyjścia DVI, oraz dodatkowe 14 pinowe złącze, mogące sugerować, że dwie takie karty dałoby się jeszcze ze sobą połączyć, uzyskujac połączoną wydajność czterech GPU. Architektura i działanie karty Asus nadal pozostaje zagadką, bowiem Gigabyte opatentował swoje rozwiązanie.

Edytowane przez Conti

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Twierdzisz że SLI to qpa ? Twoja argumentacja jest krótko mówiąc żałosna... co mnie obchodzi karta która wyjdzie za pół roku/rok o której nic nie wiadomo :P dla mnie liczy się to co do tej pory wyszło. A czy będzie pogromcą gf 6800u w SLI to się przekonamy.

koffam ati boyów  :lol:

1229718[/snapback]

A dla mnie sie liczy to na co mnie stać. W sumie to mało kogo obchodzi system graficzny za 5k. Poza tym SLI nie jest takie różowe jakby mogło sie to wydawać. Pomijająć już że ciągnie to prądu jak smok. Dlaczego?

Dołączona grafika

Co do 4x6600GT po co to komu? Byłby to demon prędkości ale w 1024x768 :D W 1600x1200 FSAA/AF byłoby to wolniejsze od pojedynczych kart z 256MB pamięci.

Edytowane przez Majdan

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

KiKiT- oczy mTy piszesz???

Z jakich newsów wynika że NV48 nie wyjdzie w tym roku???!!!!

 

Co do X800Xt to ja bym nie zaliczył go do tego samego przedziału cenowego co GF6800GT bo GF-a można dostac za ok 1550 zeta a Radka za 1800-1900 tak że około 300 zeta różnicy....Ale różnie to można rozpatrywac.....

 

 

Focus-spoko nie obrażam się..Ale czyżbyś sugerował że wszystkie inne serwisy zmówiły się przeciwko ATi i zawyżają wyniki na korzyść NV?????Nie no w takie coś to niewierze...Ja rozumiem jakby wyższość GF6600GT wykazał 1 czy 2 testy jakichś portali ale nie wszystkie..

Jedynie chyba gdzie Radki niemal zawsze wyprzedzają GF-y to jest Driverheaven(wiadomo czemu...)..Tam to nawet Rx800pro pewnie byłby szybszy od GF6800GT.... :wink:

 

Co do testów to zauważ że część benchmarków była robiona we wrześniu a wiadomo że HL2 wyszedł w listopadzie..Czyli siłą rzeczy niemożliwe było zrobienie testu w ``prawdziwej``grze HL2....

 

PS.Pogadamy na GG :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No więc tak. Wczoraj byłem u dziewczyny i zamulało demo Champions League 04/05, no więc postanowiłem zainstalować stery 66.93 (posiada GeForce 4Ti 128). I luzik w CL. Ona potem włączyła NFS U2, i wiecie co?? Zaczeło zajebiście zamulać... Ale najlepsze jest to, że jet tak jak na GF6600GT, że chodzi dobrze a nagle zamula o 50%. Czyli z tego wynikało by że coś jest z tymi sterami, dlatego tak się dzieje w GeForce 6600GT :lol: A wiec trza czekać na nowe stery :)

Edytowane przez PiPoL

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Focus-spoko nie obrażam się..Ale czyżbyś sugerował że wszystkie inne serwisy zmówiły się przeciwko ATi i zawyżają wyniki na korzyść NV?????Nie no w takie coś to niewierze...Ja rozumiem jakby wyższość GF6600GT wykazał 1 czy 2 testy jakichś portali ale nie wszystkie..

Popatrz po za może jednym wyjątkiem pokazałem Ci, że wszytkie przez Ciebie cytowane serwisy albo pokazały to co ja, albo pokazały na korzyść Radeona, albo przetestowały w grach, w których ja nie testowałem. Ja zasugerowałem co innego, aniżeli zawyżanie wynikó na korzyśc któregoś obozu ;)

 

Co do testów to zauważ że część benchmarków była robiona we wrześniu a wiadomo że HL2 wyszedł w listopadzie..Czyli siłą rzeczy niemożliwe było zrobienie testu w ``prawdziwej``grze HL2....

Co do HL2 oki - ale to, że były robione we wrześniu oznacza w przypadku kart graficznych, żę nie należy tego już brać powaznie, bo sterwoniki się zmieniły - no chyba, że używasz tych z września :D

 

PS.Pogadamy na GG :D

1229924[/snapback]

Jeśli to wina mojego przeeeeeeeeeeeeee-kozackiego netu, który ma pinga średnio 500 ms i do tego około 30% strat (jak nie więcej) to sorry - ale nie zagadałeś do mnie :D

 

Pozdrawiam - dyskusja zboczyła na inny temat niż właściwy, a właściwym jest rozważanie, jaki to Radeon X700 PRO jest fajny :D :D :-P

 

 

 

 

 

 

 

 

oczywiście w porónaniu do Radeona 9550 :D - ale to chyba wiedzieliście

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pozdrawiam - dyskusja zboczyła na inny temat niż właściwy, a właściwym jest rozważanie, jaki to Radeon X700 PRO jest fajny :D  :D  :-P

oczywiście w porónaniu do Radeona 9550 :D - ale to chyba wiedzieliście

1230097[/snapback]

a więc Focus jestes za x700 czy 6600 gt ? w moim odczuciu recenzja z elektro gieldy jest jakby bardziej za x700 ale...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

a więc Focus jestes za x700 czy 6600 gt ? w moim odczuciu recenzja z elektro gieldy jest jakby bardziej za x700 ale...

1230166[/snapback]

Ja jestem za Radeonem ............................ X300 :D żartuję

Ja nie mówię, który jest lepszy - artykuł mój pokazał różne gierki i wydajność jakie uzyskują w nim testowane karty. A która jest lepsza? Nie wiem - ja bym wybrał Radka bo jedyna gra w którą gram to zarąb....... Richard Burns Rally a tam ATI jest lepsze. Ale to wcale nie znaczy że ktoś inny ma tą kartę kupować.

 

Jeśli coś wyraźnie jest lepsze od innego to wówczas piszę, że jest lepsze, ale jeśli pływamy po granicy pomyłki to bez sensu jest wskazywać "lepszego" - moim zdaniem to tak jak mówić, że Formułą 1 jest lepsza od BMW 7 - auta do inne jazdy itd itd. W jednych grach jest lepszy Radeoin w innych GF. Pomyśl w co grasz i tą kartę wybierz. Jeśli uważasz, że jakiejś gry nie było w teście - zaproponuj postaram się zorganizować test tego jeszcze raz.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A ja jestem ciekawy jak by się w kompie sprawował układ 2x2 6600GT. Zdaje się, że asus wydał już kartę z podwójnym 6600GT, ktorą mozna dodatkowo łączyć w parę. 4 układy 6600GT chyba w tej chwili są nie do pobicia. Ciekawe, czy gdzieś już to przetestowali ....

1229804[/snapback]

niestety nieda sie połaczyć dwuch kart po 2 gpu:/ sli nie pozwla na to:/

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tak się zastanawiam, czy przypadkiem 6600 nie ma na siłę przyciętej szyny do 128bitów. Stosowane są na niej 4 kostki pamięci (zamiast 8). Nie tak dawno temu była seria radków 9100 64bit, gdzie też zastosowano 4 kości zamiast 8. Jak jest np. w 6800. Tez mają 4 kości czy 8 ???

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tak się zastanawiam, czy przypadkiem 6600 nie ma na siłę przyciętej szyny do 128bitów. Stosowane są na niej 4 kostki pamięci (zamiast 8). Nie tak dawno temu była seria radków 9100 64bit, gdzie też zastosowano 4 kości zamiast 8. Jak jest np. w 6800. Tez mają 4 kości czy 8 ???

1230530[/snapback]

Tutaj jest kwestia produkcji pamięci

Samsung GDDR3 produkuje już tylko 256 Bit zatem nVidia kupuje takowe, ale rozkłada taki pakiet na dwie karty GF 6600 GT, dzięki czemu każda dostaje po 4 kostki czyli 128 bit

 

GF 6600 nonGT ma 8 kostek pamięci ale DDR1. Wątpię, żeby nVidia zrobiła w tej karcie kontroler 256 bitowy (4 x 64) - za dużo by ją to kosztowało

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

http://www.techreport.com/reviews/2005q1/g...li/index.x?pg=7

 

Jeśli zawierzacie temu serwisowi to popatrzcie na osiągi 6600gt i x700xt w grze optymalizowanej pod ati.Znajdą sięrównież testy przeprowadzane na innych aplikacjach 3d(np:wydajność pixelshader'a w 3dmark2005).

Artykuł odnosi się do 6600gt w sli ale zamieszczona jest również cała gama nowych kart graficznych.

Edytowane przez qqrydza

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jakes dziwne te testy jak dla mnie... Wynika z nich ze w rozdzielczosci 1024x768 pojedynczy GF  jest lepszy od dwoch w sli. co prawda w nieznacznym stopniu ale jest lepszy.

1230694[/snapback]

Co w tym dziwnego? To chyba oczywiste, że SLI jest wolniejsze od pojedynczej karty gdy wąskie gardło stanowi procesor. Obsługa SLI "zjada" troszkę mocy obliczeniowej CPU.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

SLI to glupi pomysl moze zaczna wymyslac jak polaczyc 10 kart graficznych wtedy komputer bedzie skladal sie w 80% z kart graficznych. Juz widze te topici : Nie wiem co kupic 10xGF XXXX czy mzoe 6 x GF yyyyyyy.

 

"Do [gluteus maximus] z taka robota..."

 

SLI smierdzi kupa.

Edytowane przez KOFEK

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

SLI to glupi pomysl moze zaczna wymyslac jak polaczyc 10 kart graficznych wtedy komputer bedzie skladal sie  w 80% z kart graficznych. Juz widze te topici : Nie wiem co kupic 10xGF XXXX czy mzoe 6 x GF yyyyyyy.

 

"Do [gluteus maximus] z taka robota..."

 

SLI smierdzi kupa.

1230828[/snapback]

sli to tylko maketing nv i tyle...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Najgorzej, ze tylko marketing - liczba gier obslugujacych SLI jest malutka :(

 

Bariera jest to, ze obsluge SLI trzeba wbudowac w engine gry - inaczej kupa. Jak dla mnie poroniony pomysl...

1231043[/snapback]

IMHO SLI pokazuje ze zblizamy sie do "kresu wynalazczosci odkrywczej" i pewnych nieprzekraczalnych barier w obecnej technologoii budowy kart graficznych... Czym ze jest laczenie dwoch takich samych kart w jedna zamiast rozbudowa architektury i tworzenie czegos na prawde nowego :?:

Marketing dla danego produktu/uslugi pojawia sie wtedy jesli znajdzie sie chocby mala grupka ludzi chetnych na zakup - tu chodzi akurat o o ludzi BARDZO bogatych (wrecz nie liczacych sie z kasa) i zapatrzonych w FPSy i punkty 3DMarkow ;-) ALBO marketing pojawia sie wtedy gdy "animatorzy rynku" chca wywolac pewne zachowania konsumentow na rynku - ot cala prawda :idea:

 

Lubialem miec i dotychczas zawsze mialem karte graficzna z najwyzszej polki (+ oczywiscie jej OC :D ) - ale musialbym byc mega-ynorzpeipop zeby wydawac tyle kasy na takie rozwiazanie jak 2x6800Ultra (+ do tego oczywiscie zmiana mobo, zasilacza itd)...

 

Niestety przez takie SLI beda tworzone jednak gierki o wiele bardziej wymagajace (nie koniecznie dopracowane) a serwisy beda porownywac kazda grafe z topowym odnosnikiem (2x6800Ultra) i tym samym pokazywac IMHO bardzo zafalszowany obraz tego, ze kazda grafa slabsza niz ww. jest do bani i nie zapewnia komfortu grania... smutne, nie prawdziwe, ale jednak ludzie beda w to wierzyc :(

 

Ja swoja grafe mam juz 15 miesiecy i dotychczas nic nie dzialalo w max detalach z predkoscia mnie nie zadowalajaca (a jestem wymagajacy)... a teraz jak mam juz 1GB RAM, to w ogole nie ma problemu - HL2, Doom3, FarCry...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dimek: swiete slowa...

 

Z jednym zastrzezeniem: SLI nie ejst nowym wynalazkiem - pierwsze bylo Voodoo II :)

 

Co do tworzenia nowych rzeczy: IMHO nie jest tak, ze to juz kres inwencji. Po prostu SLI jest metoda na wyciagniecie od ludzi kolejnych pieniedzy praktycznie za friko...

 

A nowe uklady sie beda pojawiac na pewno.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja swoja grafe mam juz 15 miesiecy i dotychczas nic nie dzialalo w max detalach z predkoscia mnie nie zadowalajaca (a jestem wymagajacy)... a teraz jak mam juz 1GB RAM, to w ogole nie ma problemu - HL2, Doom3, FarCry...

1231092[/snapback]

Nie watpie ze na TAK wykreconym sprzecie wszystko chodzi miodzio :)

Ciekawe jak sie kreci 6600gt przy zastosowaniu WC

Rdzen na ~600 a pamiec na ~625 ?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dimek: swiete slowa...

 

Z jednym zastrzezeniem: SLI nie ejst nowym wynalazkiem - pierwsze bylo Voodoo II :)

I powiedz - ile znasz/znales osob ktore mialy takie rozwiazanie w swoim kompie :?: ;-) Byly tez (jak sie okazalo kiepskie) rozwiazania ATI RAge Fury MAXX itp - IMHO to droga do nikad :?

Co do tworzenia nowych rzeczy: IMHO nie jest tak, ze to juz kres inwencji. Po prostu SLI jest metoda na wyciagniecie od ludzi kolejnych pieniedzy praktycznie za friko...

 

A nowe uklady sie beda pojawiac na pewno.

1231536[/snapback]

Pewnie, ze beda sie pojawiac, ale ilez mozna zmniejszac technikie wykonania 0,15 > 0,13 > 0,11 > ??? Takiej techniki kres zbliza sie szybko - na razie to mamy inwencje ewolucjna... a potrzebna jest inwencja rewolucjna B)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zdaje sie kres mozliwosci technologicznych to 0.05 um (50nm) - ponizej tego trzeba juz szukac innych polprzewodnikow, co generuje niemale koszty (krzem jest najtanszy).

 

Inwencja "ewolucyjna" to jedzie od czasow Geforce256 i wprowadzenia T&L - to byla IMHO ostatnia rewolucja. Potem juz bylo tylko udoskonalanie istniejacych rozwiazan i zwiekszanie mocy obliczeniowej.

Moge sie jeszcze zgodzic, ze druga rewolucja (choc w mniejszym stopniu niz T&L) byl pixel shader - glownie ze wzgledu na jakosc mozliwych do osiagniecia efektow.

 

Taka ewolucja jeszcze potrwa dlugo - kolejne wersje DX, wiecej potokow, wiecej pamieci, szybsze zegary i szersze magistrale...

Na rewolucje chyba nie ma po prostu na razie zapotrzebowania :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie watpie ze na TAK wykreconym sprzecie wszystko chodzi miodzio :)

Ciekawe jak sie kreci 6600gt przy zastosowaniu WC

Rdzen na ~600 a pamiec na ~625 ?

1231849[/snapback]

bardzo mozliwe.. jescze pytnie czy da sie zrobić v moda...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zdaje sie kres mozliwosci technologicznych to 0.05 um (50nm) - ponizej tego trzeba juz szukac innych polprzewodnikow, co generuje niemale koszty (krzem jest najtanszy).

 

Inwencja "ewolucyjna" to jedzie od czasow Geforce256 i wprowadzenia T&L - to byla IMHO ostatnia rewolucja. Potem juz bylo tylko udoskonalanie istniejacych rozwiazan i zwiekszanie mocy obliczeniowej.

Moge sie jeszcze zgodzic, ze druga rewolucja (choc w mniejszym stopniu niz T&L) byl pixel shader - glownie ze wzgledu na jakosc mozliwych do osiagniecia efektow.

 

Taka ewolucja jeszcze potrwa dlugo - kolejne wersje DX, wiecej potokow, wiecej pamieci, szybsze zegary i szersze magistrale...

Na rewolucje chyba nie ma po prostu na razie zapotrzebowania :)

1232017[/snapback]

zgadam sie ze gf 256 to byra rewolucja... oj była. a co do wymiary technologicznego to mozna przeciez jeszcze sporo.. wiec narazie mysle ze to nie pronblem... ja mam tylko nadzije ze nv nie spuzni sie z następca dla 6800u i nie straci całkiem pozycji na zecz ati jak to bylo z voodo

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

Ładowanie



×
×
  • Dodaj nową pozycję...