Conti Opublikowano 22 Stycznia 2005 Zgłoś Opublikowano 22 Stycznia 2005 A ja jestem ciekawy jak by się w kompie sprawował układ 2x2 6600GT. Zdaje się, że asus wydał już kartę z podwójnym 6600GT, ktorą mozna dodatkowo łączyć w parę. 4 układy 6600GT chyba w tej chwili są nie do pobicia. Ciekawe, czy gdzieś już to przetestowali .... Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
dvie1 Opublikowano 22 Stycznia 2005 Zgłoś Opublikowano 22 Stycznia 2005 nie asus tylko gigabyte... Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Conti Opublikowano 22 Stycznia 2005 Zgłoś Opublikowano 22 Stycznia 2005 (edytowane) Gigabyte był pierwszy. Teraz to chyba i asus i xxxx już mają. Dwuprocesorowy Asus EN6600GT Kolejną po GIGABYTE GV-3D1 kartą z dwoma procesorami GeForce 6600 GT, może być produkt ASUSa EN6600GT. Zdjęcia takiej karty zamieścił właśnie Tajwański serwis Digital-Info.Net. Karta Asusa ma dla odmiany dwa wyjścia DVI, oraz dodatkowe 14 pinowe złącze, mogące sugerować, że dwie takie karty dałoby się jeszcze ze sobą połączyć, uzyskujac połączoną wydajność czterech GPU. Architektura i działanie karty Asus nadal pozostaje zagadką, bowiem Gigabyte opatentował swoje rozwiązanie. Edytowane 22 Stycznia 2005 przez Conti Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
costi Opublikowano 22 Stycznia 2005 Zgłoś Opublikowano 22 Stycznia 2005 Tyle ze tego sie nie da juz w pare - ta karta to po prostu 6600GT SLI na wspolnym PCB. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Conti Opublikowano 22 Stycznia 2005 Zgłoś Opublikowano 22 Stycznia 2005 Tutaj coś więcej o asusie. Niestety, oprócz 2 takich kart coś jeszcze będzie potrzebne do działania w układzie 4x 6600GT http://www.in4.pl/komentarze.htm?kbt=N&news_id=6065 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Majdan Opublikowano 22 Stycznia 2005 Zgłoś Opublikowano 22 Stycznia 2005 (edytowane) Twierdzisz że SLI to qpa ? Twoja argumentacja jest krótko mówiąc żałosna... co mnie obchodzi karta która wyjdzie za pół roku/rok o której nic nie wiadomo :P dla mnie liczy się to co do tej pory wyszło. A czy będzie pogromcą gf 6800u w SLI to się przekonamy. koffam ati boyów :lol: 1229718[/snapback] A dla mnie sie liczy to na co mnie stać. W sumie to mało kogo obchodzi system graficzny za 5k. Poza tym SLI nie jest takie różowe jakby mogło sie to wydawać. Pomijająć już że ciągnie to prądu jak smok. Dlaczego? Co do 4x6600GT po co to komu? Byłby to demon prędkości ale w 1024x768 :D W 1600x1200 FSAA/AF byłoby to wolniejsze od pojedynczych kart z 256MB pamięci. Edytowane 22 Stycznia 2005 przez Majdan Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Domell Opublikowano 22 Stycznia 2005 Zgłoś Opublikowano 22 Stycznia 2005 KiKiT- oczy mTy piszesz??? Z jakich newsów wynika że NV48 nie wyjdzie w tym roku???!!!! Co do X800Xt to ja bym nie zaliczył go do tego samego przedziału cenowego co GF6800GT bo GF-a można dostac za ok 1550 zeta a Radka za 1800-1900 tak że około 300 zeta różnicy....Ale różnie to można rozpatrywac..... Focus-spoko nie obrażam się..Ale czyżbyś sugerował że wszystkie inne serwisy zmówiły się przeciwko ATi i zawyżają wyniki na korzyść NV?????Nie no w takie coś to niewierze...Ja rozumiem jakby wyższość GF6600GT wykazał 1 czy 2 testy jakichś portali ale nie wszystkie.. Jedynie chyba gdzie Radki niemal zawsze wyprzedzają GF-y to jest Driverheaven(wiadomo czemu...)..Tam to nawet Rx800pro pewnie byłby szybszy od GF6800GT.... :wink: Co do testów to zauważ że część benchmarków była robiona we wrześniu a wiadomo że HL2 wyszedł w listopadzie..Czyli siłą rzeczy niemożliwe było zrobienie testu w ``prawdziwej``grze HL2.... PS.Pogadamy na GG :D Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
dvie1 Opublikowano 22 Stycznia 2005 Zgłoś Opublikowano 22 Stycznia 2005 @Conti zwracam honor... nie wiedziałem... sorry :) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
PiPoL Opublikowano 22 Stycznia 2005 Zgłoś Opublikowano 22 Stycznia 2005 (edytowane) No więc tak. Wczoraj byłem u dziewczyny i zamulało demo Champions League 04/05, no więc postanowiłem zainstalować stery 66.93 (posiada GeForce 4Ti 128). I luzik w CL. Ona potem włączyła NFS U2, i wiecie co?? Zaczeło zajebiście zamulać... Ale najlepsze jest to, że jet tak jak na GF6600GT, że chodzi dobrze a nagle zamula o 50%. Czyli z tego wynikało by że coś jest z tymi sterami, dlatego tak się dzieje w GeForce 6600GT :lol: A wiec trza czekać na nowe stery :) Edytowane 22 Stycznia 2005 przez PiPoL Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
focus_ Opublikowano 22 Stycznia 2005 Zgłoś Opublikowano 22 Stycznia 2005 Focus-spoko nie obrażam się..Ale czyżbyś sugerował że wszystkie inne serwisy zmówiły się przeciwko ATi i zawyżają wyniki na korzyść NV?????Nie no w takie coś to niewierze...Ja rozumiem jakby wyższość GF6600GT wykazał 1 czy 2 testy jakichś portali ale nie wszystkie..Popatrz po za może jednym wyjątkiem pokazałem Ci, że wszytkie przez Ciebie cytowane serwisy albo pokazały to co ja, albo pokazały na korzyść Radeona, albo przetestowały w grach, w których ja nie testowałem. Ja zasugerowałem co innego, aniżeli zawyżanie wynikó na korzyśc któregoś obozu ;) Co do testów to zauważ że część benchmarków była robiona we wrześniu a wiadomo że HL2 wyszedł w listopadzie..Czyli siłą rzeczy niemożliwe było zrobienie testu w ``prawdziwej``grze HL2....Co do HL2 oki - ale to, że były robione we wrześniu oznacza w przypadku kart graficznych, żę nie należy tego już brać powaznie, bo sterwoniki się zmieniły - no chyba, że używasz tych z września :D PS.Pogadamy na GG :D 1229924[/snapback] Jeśli to wina mojego przeeeeeeeeeeeeee-kozackiego netu, który ma pinga średnio 500 ms i do tego około 30% strat (jak nie więcej) to sorry - ale nie zagadałeś do mnie :D Pozdrawiam - dyskusja zboczyła na inny temat niż właściwy, a właściwym jest rozważanie, jaki to Radeon X700 PRO jest fajny :D :D :-P oczywiście w porónaniu do Radeona 9550 :D - ale to chyba wiedzieliście Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
dvie1 Opublikowano 22 Stycznia 2005 Zgłoś Opublikowano 22 Stycznia 2005 Pozdrawiam - dyskusja zboczyła na inny temat niż właściwy, a właściwym jest rozważanie, jaki to Radeon X700 PRO jest fajny :D :D :-P oczywiście w porónaniu do Radeona 9550 :D - ale to chyba wiedzieliście 1230097[/snapback] a więc Focus jestes za x700 czy 6600 gt ? w moim odczuciu recenzja z elektro gieldy jest jakby bardziej za x700 ale... Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
focus_ Opublikowano 22 Stycznia 2005 Zgłoś Opublikowano 22 Stycznia 2005 a więc Focus jestes za x700 czy 6600 gt ? w moim odczuciu recenzja z elektro gieldy jest jakby bardziej za x700 ale... 1230166[/snapback] Ja jestem za Radeonem ............................ X300 :D żartuję Ja nie mówię, który jest lepszy - artykuł mój pokazał różne gierki i wydajność jakie uzyskują w nim testowane karty. A która jest lepsza? Nie wiem - ja bym wybrał Radka bo jedyna gra w którą gram to zarąb....... Richard Burns Rally a tam ATI jest lepsze. Ale to wcale nie znaczy że ktoś inny ma tą kartę kupować. Jeśli coś wyraźnie jest lepsze od innego to wówczas piszę, że jest lepsze, ale jeśli pływamy po granicy pomyłki to bez sensu jest wskazywać "lepszego" - moim zdaniem to tak jak mówić, że Formułą 1 jest lepsza od BMW 7 - auta do inne jazdy itd itd. W jednych grach jest lepszy Radeoin w innych GF. Pomyśl w co grasz i tą kartę wybierz. Jeśli uważasz, że jakiejś gry nie było w teście - zaproponuj postaram się zorganizować test tego jeszcze raz. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
amras Opublikowano 22 Stycznia 2005 Zgłoś Opublikowano 22 Stycznia 2005 A ja jestem ciekawy jak by się w kompie sprawował układ 2x2 6600GT. Zdaje się, że asus wydał już kartę z podwójnym 6600GT, ktorą mozna dodatkowo łączyć w parę. 4 układy 6600GT chyba w tej chwili są nie do pobicia. Ciekawe, czy gdzieś już to przetestowali .... 1229804[/snapback] niestety nieda sie połaczyć dwuch kart po 2 gpu:/ sli nie pozwla na to:/ Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
costi Opublikowano 22 Stycznia 2005 Zgłoś Opublikowano 22 Stycznia 2005 Wlasnie ten wynalazek Ausua ma miec taka mozliwosc. Z jednym zastrzezeniem - tylko na plycie Asusa do tego przystosowanej :? Co nie zmienia faktu, ze 4x6600GT brzmi kozacko :) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Conti Opublikowano 22 Stycznia 2005 Zgłoś Opublikowano 22 Stycznia 2005 Tak się zastanawiam, czy przypadkiem 6600 nie ma na siłę przyciętej szyny do 128bitów. Stosowane są na niej 4 kostki pamięci (zamiast 8). Nie tak dawno temu była seria radków 9100 64bit, gdzie też zastosowano 4 kości zamiast 8. Jak jest np. w 6800. Tez mają 4 kości czy 8 ??? Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
focus_ Opublikowano 22 Stycznia 2005 Zgłoś Opublikowano 22 Stycznia 2005 Tak się zastanawiam, czy przypadkiem 6600 nie ma na siłę przyciętej szyny do 128bitów. Stosowane są na niej 4 kostki pamięci (zamiast 8). Nie tak dawno temu była seria radków 9100 64bit, gdzie też zastosowano 4 kości zamiast 8. Jak jest np. w 6800. Tez mają 4 kości czy 8 ??? 1230530[/snapback] Tutaj jest kwestia produkcji pamięci Samsung GDDR3 produkuje już tylko 256 Bit zatem nVidia kupuje takowe, ale rozkłada taki pakiet na dwie karty GF 6600 GT, dzięki czemu każda dostaje po 4 kostki czyli 128 bit GF 6600 nonGT ma 8 kostek pamięci ale DDR1. Wątpię, żeby nVidia zrobiła w tej karcie kontroler 256 bitowy (4 x 64) - za dużo by ją to kosztowało Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
qqrydza Opublikowano 22 Stycznia 2005 Zgłoś Opublikowano 22 Stycznia 2005 (edytowane) http://www.techreport.com/reviews/2005q1/g...li/index.x?pg=7 Jeśli zawierzacie temu serwisowi to popatrzcie na osiągi 6600gt i x700xt w grze optymalizowanej pod ati.Znajdą sięrównież testy przeprowadzane na innych aplikacjach 3d(np:wydajność pixelshader'a w 3dmark2005). Artykuł odnosi się do 6600gt w sli ale zamieszczona jest również cała gama nowych kart graficznych. Edytowane 22 Stycznia 2005 przez qqrydza Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Mangelo Opublikowano 22 Stycznia 2005 Zgłoś Opublikowano 22 Stycznia 2005 1230670[/snapback] Jakes dziwne te testy jak dla mnie... Wynika z nich ze w rozdzielczosci 1024x768 pojedynczy GF jest lepszy od dwoch w sli. co prawda w nieznacznym stopniu ale jest lepszy. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Majdan Opublikowano 22 Stycznia 2005 Zgłoś Opublikowano 22 Stycznia 2005 Jakes dziwne te testy jak dla mnie... Wynika z nich ze w rozdzielczosci 1024x768 pojedynczy GF jest lepszy od dwoch w sli. co prawda w nieznacznym stopniu ale jest lepszy. 1230694[/snapback] Co w tym dziwnego? To chyba oczywiste, że SLI jest wolniejsze od pojedynczej karty gdy wąskie gardło stanowi procesor. Obsługa SLI "zjada" troszkę mocy obliczeniowej CPU. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
KOFEK Opublikowano 23 Stycznia 2005 Zgłoś Opublikowano 23 Stycznia 2005 (edytowane) SLI to glupi pomysl moze zaczna wymyslac jak polaczyc 10 kart graficznych wtedy komputer bedzie skladal sie w 80% z kart graficznych. Juz widze te topici : Nie wiem co kupic 10xGF XXXX czy mzoe 6 x GF yyyyyyy. "Do [gluteus maximus] z taka robota..." SLI smierdzi kupa. Edytowane 23 Stycznia 2005 przez KOFEK Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
amras Opublikowano 23 Stycznia 2005 Zgłoś Opublikowano 23 Stycznia 2005 SLI to glupi pomysl moze zaczna wymyslac jak polaczyc 10 kart graficznych wtedy komputer bedzie skladal sie w 80% z kart graficznych. Juz widze te topici : Nie wiem co kupic 10xGF XXXX czy mzoe 6 x GF yyyyyyy. "Do [gluteus maximus] z taka robota..." SLI smierdzi kupa. 1230828[/snapback] sli to tylko maketing nv i tyle... Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
KOFEK Opublikowano 23 Stycznia 2005 Zgłoś Opublikowano 23 Stycznia 2005 Z tego co widze to tutaj SLI jest traktowane na powaznie wiec nie wiem czy to tylko marketing skoro ludzie rozwazaja taka opcje... Jesli marketing to nieudolny!! Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
costi Opublikowano 23 Stycznia 2005 Zgłoś Opublikowano 23 Stycznia 2005 Najgorzej, ze tylko marketing - liczba gier obslugujacych SLI jest malutka :( Bariera jest to, ze obsluge SLI trzeba wbudowac w engine gry - inaczej kupa. Jak dla mnie poroniony pomysl... Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Dimek Opublikowano 23 Stycznia 2005 Zgłoś Opublikowano 23 Stycznia 2005 Najgorzej, ze tylko marketing - liczba gier obslugujacych SLI jest malutka :( Bariera jest to, ze obsluge SLI trzeba wbudowac w engine gry - inaczej kupa. Jak dla mnie poroniony pomysl... 1231043[/snapback] IMHO SLI pokazuje ze zblizamy sie do "kresu wynalazczosci odkrywczej" i pewnych nieprzekraczalnych barier w obecnej technologoii budowy kart graficznych... Czym ze jest laczenie dwoch takich samych kart w jedna zamiast rozbudowa architektury i tworzenie czegos na prawde nowego :?: Marketing dla danego produktu/uslugi pojawia sie wtedy jesli znajdzie sie chocby mala grupka ludzi chetnych na zakup - tu chodzi akurat o o ludzi BARDZO bogatych (wrecz nie liczacych sie z kasa) i zapatrzonych w FPSy i punkty 3DMarkow ;-) ALBO marketing pojawia sie wtedy gdy "animatorzy rynku" chca wywolac pewne zachowania konsumentow na rynku - ot cala prawda :idea: Lubialem miec i dotychczas zawsze mialem karte graficzna z najwyzszej polki (+ oczywiscie jej OC :D ) - ale musialbym byc mega-ynorzpeipop zeby wydawac tyle kasy na takie rozwiazanie jak 2x6800Ultra (+ do tego oczywiscie zmiana mobo, zasilacza itd)... Niestety przez takie SLI beda tworzone jednak gierki o wiele bardziej wymagajace (nie koniecznie dopracowane) a serwisy beda porownywac kazda grafe z topowym odnosnikiem (2x6800Ultra) i tym samym pokazywac IMHO bardzo zafalszowany obraz tego, ze kazda grafa slabsza niz ww. jest do bani i nie zapewnia komfortu grania... smutne, nie prawdziwe, ale jednak ludzie beda w to wierzyc :( Ja swoja grafe mam juz 15 miesiecy i dotychczas nic nie dzialalo w max detalach z predkoscia mnie nie zadowalajaca (a jestem wymagajacy)... a teraz jak mam juz 1GB RAM, to w ogole nie ma problemu - HL2, Doom3, FarCry... Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
costi Opublikowano 23 Stycznia 2005 Zgłoś Opublikowano 23 Stycznia 2005 Dimek: swiete slowa... Z jednym zastrzezeniem: SLI nie ejst nowym wynalazkiem - pierwsze bylo Voodoo II :) Co do tworzenia nowych rzeczy: IMHO nie jest tak, ze to juz kres inwencji. Po prostu SLI jest metoda na wyciagniecie od ludzi kolejnych pieniedzy praktycznie za friko... A nowe uklady sie beda pojawiac na pewno. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
lead Opublikowano 23 Stycznia 2005 Zgłoś Opublikowano 23 Stycznia 2005 Ja swoja grafe mam juz 15 miesiecy i dotychczas nic nie dzialalo w max detalach z predkoscia mnie nie zadowalajaca (a jestem wymagajacy)... a teraz jak mam juz 1GB RAM, to w ogole nie ma problemu - HL2, Doom3, FarCry... 1231092[/snapback] Nie watpie ze na TAK wykreconym sprzecie wszystko chodzi miodzio :) Ciekawe jak sie kreci 6600gt przy zastosowaniu WC Rdzen na ~600 a pamiec na ~625 ? Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Dimek Opublikowano 23 Stycznia 2005 Zgłoś Opublikowano 23 Stycznia 2005 Dimek: swiete slowa... Z jednym zastrzezeniem: SLI nie ejst nowym wynalazkiem - pierwsze bylo Voodoo II :) I powiedz - ile znasz/znales osob ktore mialy takie rozwiazanie w swoim kompie :?: ;-) Byly tez (jak sie okazalo kiepskie) rozwiazania ATI RAge Fury MAXX itp - IMHO to droga do nikad :? Co do tworzenia nowych rzeczy: IMHO nie jest tak, ze to juz kres inwencji. Po prostu SLI jest metoda na wyciagniecie od ludzi kolejnych pieniedzy praktycznie za friko... A nowe uklady sie beda pojawiac na pewno. 1231536[/snapback] Pewnie, ze beda sie pojawiac, ale ilez mozna zmniejszac technikie wykonania 0,15 > 0,13 > 0,11 > ??? Takiej techniki kres zbliza sie szybko - na razie to mamy inwencje ewolucjna... a potrzebna jest inwencja rewolucjna B) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
costi Opublikowano 23 Stycznia 2005 Zgłoś Opublikowano 23 Stycznia 2005 Zdaje sie kres mozliwosci technologicznych to 0.05 um (50nm) - ponizej tego trzeba juz szukac innych polprzewodnikow, co generuje niemale koszty (krzem jest najtanszy). Inwencja "ewolucyjna" to jedzie od czasow Geforce256 i wprowadzenia T&L - to byla IMHO ostatnia rewolucja. Potem juz bylo tylko udoskonalanie istniejacych rozwiazan i zwiekszanie mocy obliczeniowej. Moge sie jeszcze zgodzic, ze druga rewolucja (choc w mniejszym stopniu niz T&L) byl pixel shader - glownie ze wzgledu na jakosc mozliwych do osiagniecia efektow. Taka ewolucja jeszcze potrwa dlugo - kolejne wersje DX, wiecej potokow, wiecej pamieci, szybsze zegary i szersze magistrale... Na rewolucje chyba nie ma po prostu na razie zapotrzebowania :) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
amras Opublikowano 23 Stycznia 2005 Zgłoś Opublikowano 23 Stycznia 2005 Nie watpie ze na TAK wykreconym sprzecie wszystko chodzi miodzio :) Ciekawe jak sie kreci 6600gt przy zastosowaniu WC Rdzen na ~600 a pamiec na ~625 ? 1231849[/snapback] bardzo mozliwe.. jescze pytnie czy da sie zrobić v moda... Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
amras Opublikowano 23 Stycznia 2005 Zgłoś Opublikowano 23 Stycznia 2005 Zdaje sie kres mozliwosci technologicznych to 0.05 um (50nm) - ponizej tego trzeba juz szukac innych polprzewodnikow, co generuje niemale koszty (krzem jest najtanszy). Inwencja "ewolucyjna" to jedzie od czasow Geforce256 i wprowadzenia T&L - to byla IMHO ostatnia rewolucja. Potem juz bylo tylko udoskonalanie istniejacych rozwiazan i zwiekszanie mocy obliczeniowej. Moge sie jeszcze zgodzic, ze druga rewolucja (choc w mniejszym stopniu niz T&L) byl pixel shader - glownie ze wzgledu na jakosc mozliwych do osiagniecia efektow. Taka ewolucja jeszcze potrwa dlugo - kolejne wersje DX, wiecej potokow, wiecej pamieci, szybsze zegary i szersze magistrale... Na rewolucje chyba nie ma po prostu na razie zapotrzebowania :) 1232017[/snapback] zgadam sie ze gf 256 to byra rewolucja... oj była. a co do wymiary technologicznego to mozna przeciez jeszcze sporo.. wiec narazie mysle ze to nie pronblem... ja mam tylko nadzije ze nv nie spuzni sie z następca dla 6800u i nie straci całkiem pozycji na zecz ati jak to bylo z voodo Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...