Skocz do zawartości
DrKleiner

Nvidia G92

Rekomendowane odpowiedzi

Trza kupić kolejny numer może w listach do redakcji ( o ile coś takiego jest) beda nicki ludzi z forum :lol:

 

Tak gadacie o tym poborze mocy :P mi to tam nie przeszkadza, byle by wydajniejsze było :)

Edytowane przez Nerevar

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

wydanie g80 w 90nm procesie to juz byla zbrodnia przeciw ludzkosci :mur: bo powinno byc juz od dawna conajmniej 80nm

 

a teraz nvidia odswiezy kotleta w 65nm i kaze placic sobie jeszce raz mimo ze starzy klienci ktorzy rok temu kupowali za 600$ 8800gtx dx10 polizali niczym loda przez szybe :mur:

 

ironia losu

 

pozatym dx10 mozna sobie darowac w najblizszych 2 latach z prostej przyczyny. Wiekszosc produkcji jest multiplatformowych port z czegos na cos a z reguly jako bardziej dochodowe produkcje kierowane na konsole i ewentualna konwersje na pc. Przez najblizsze 2 lata bedziemy mieli do czynienia z takimi dx10 jak w bioshocku - czyli gra nie warta swieczki i mordolegi z takim wynalazkiem jak vista

Edytowane przez phenom

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Chyba wiesz co kupiłeś za 600 dolców i nie łudziłeś się, ze wyjdą jakieś gierki pod DX10? :D

 

 

Ludzie, litości. Wydajecie fortune na karty i macie pretensje bo zrobiliście to niepotrzebnie. No comment.

 

 

 

 

Przecież kupno karty w pół roku po premierze to zawsze jest zakup do 3d marków by się pochwalić pozycją w rankingach internetowych. Pozatym premierom zawsze towarzyszy wysyp recenzji i testów, totez naprawdę trudno kupić bubla!

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Chyba wiesz co kupiłeś za 600 dolców i nie łudziłeś się, ze wyjdą jakieś gierki pod DX10? :D

Ludzie, litości. Wydajecie fortune na karty i macie pretensje bo zrobiliście to niepotrzebnie. No comment.

Przecież kupno karty w pół roku po premierze to zawsze jest zakup do 3d marków by się pochwalić pozycją w rankingach internetowych. Pozatym premierom zawsze towarzyszy wysyp recenzji i testów, totez naprawdę trudno kupić bubla!

ja tylko stwierdzam fakt. Sam bym karty za 2k w zyciu nie kupil sam od poczatku bylem swiada ze tyle tranzystorow w 90nm i tym poborze pradu to pogon firmy za latwka kasa Edytowane przez phenom

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

phenom

 

Gwarantuje Ci slowem honoru ze bys kupil karte nawet za 2,5tys

oczywiscie gdybys odpowiednio duzo zarabial

Powiedzmy 12tys zlociszy + bonusy premie itp.

Edytowane przez Mario2k

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

wydanie g80 w 90nm procesie to juz byla zbrodnia przeciw ludzkosci :mur: bo powinno byc juz od dawna conajmniej 80nm

Mógłbyś rozwinąć nieco swoją wypowiedź w tej kwestii?? A to niby czemu?? Co to ma do rzeczy?? Jesli piszesz że G80 i 90nm proces to "zbrodnia przeciw ludzkości" to czym w takim razie nazwać to co zaprezentowało ATI ze swoim r600, który jest wolniejszym, bardziej prądożernym i bardziej grzejącym się GPU od G80 mimo iż wykonany jest w procesie 80nm....

 

Jak na 90nm proces i tak ogromną liczbę tranzystorów - a co za tym idzie ogromny rdzeń - z jakiej składa się G80 to taki pobór mocy jaki ma G80 to jest to wręcz wynik kapitalny....

 

a teraz nvidia odswiezy kotleta w 65nm i kaze placic sobie jeszce raz mimo ze starzy klienci ktorzy rok temu kupowali za 600$ 8800gtx dx10 polizali niczym loda przez szybe :mur:

Najprawdopodobniej zarówno produkty NVIDII jak i AMD/ATI nie będa się różnić jeśli chodzi o architekture od odpowiednio G80 jak i r600.... Tak że można w sumie powiedziec że zarówno jedni i drudzy zafundują nam poniekad odgrzewane kotlety....

 

Co do DX10 to co z tego że nie ma gier w pełni bazujących na DX10?? Przeciez większośc osób które kupiły GF8800 nie zrobiła tego z myśla o DX10 jako głównym celu swojego zakupu.... To własnie rewelacyjna wydajnosc G80 w DX9 (w DX10 też się sprawuje bardzo dobrze) spowodowała tak dużą popularnośc G80.... I zakup takiej karty jest uzasadniony chocby z tego powodu bowiem karty poprzedniej generacji wymiękają już w najnowszych grach pod DX9 tak więc jeśli ktoś gra w wysokich rozdziałkach (a 19 i wiecej calowe monitory nie są już tak niedostepne nawet dla mniej zamożnych użytkowników) i do tego z AA/AF czy HDR to praktycznie nie ma wyboru a konkretnie wybór jest tylko jeden GF8800....

 

 

pozatym dx10 mozna sobie darowac w najblizszych 2 latach z prostej przyczyny. Wiekszosc produkcji jest multiplatformowych port z czegos na cos a z reguly jako bardziej dochodowe produkcje kierowane na konsole i ewentualna konwersje na pc. Przez najblizsze 2 lata bedziemy mieli do czynienia z takimi dx10 jak w bioshocku - czyli gra nie warta swieczki i mordolegi z takim wynalazkiem jak vista

j.w.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

wydanie g80 w 90nm procesie to juz byla zbrodnia przeciw ludzkosci :mur: bo powinno byc juz od dawna conajmniej 80nm

 

a teraz nvidia odswiezy kotleta w 65nm i kaze placic sobie jeszce raz mimo ze starzy klienci ktorzy rok temu kupowali za 600$ 8800gtx dx10 polizali niczym loda przez szybe :mur:

 

ironia losu

 

pozatym dx10 mozna sobie darowac w najblizszych 2 latach z prostej przyczyny. Wiekszosc produkcji jest multiplatformowych port z czegos na cos a z reguly jako bardziej dochodowe produkcje kierowane na konsole i ewentualna konwersje na pc. Przez najblizsze 2 lata bedziemy mieli do czynienia z takimi dx10 jak w bioshocku - czyli gra nie warta swieczki i mordolegi z takim wynalazkiem jak vista

hmm co masz za problem z 90n , nie liczy się proces a wydajność , wielkość , mieści się do budy więc żaden klopot, pobór prądu ... są karty w 80 i żra więcej a są mniej wydajne , głośniejsze i bardziej gorące.. cena normalne że high będzie drogi i że zawsze wyjdzie następca. GTX , kupiłem 2 stycznia dałem 2400 - potaniał , normalna kolej żeczy i wcale z tego powodu nie bedę się wieszał bo to normalne że sprzęt tanieje ... nowe wyjdą , ano wyjdą , będą szybsze - pewnie będą i co z tego 2 - 10% to margines , jak nie będą szybsze o 20-30% wymiana bez sensu ....... strace na karcie ... strace ale to normalne , na pamięciach straciłem więcej dałe za nie 2 x 585pln a teraz są za 2x340 - nie wieszam się z tego powodu...

większość ludzi kupilo G80 bo chciało mieć najlepszą kartę na rynku , która radzi sobie świetnie w DX9 i nie zawiodła się , i ci co kupią też się nie zawiodą .......takie jest życie , kupując samochód traci się więcej i jakoś nikt się nie wiesza i nie liże lodów przez szybę jak wychodzi nowy model.

Edytowane przez konio68

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pisanie, że traci się na g80 to jakaś dziwna sprawa. Od momentu ich wydania pozwalają grać we wszystkie gry pod DX9 z maksymalnymi detalami w dużych rozdzielczościach. Mało ? I na dodatek mają dx10.

 

Kiedy pojawił się dx9 to radek 9800 był cudem szybkości ale czy pozwalał na płynne granie w dx9c ? Dopiero seria x1xxx to umożliwiała.

 

Osobiście mam nadzieję, że g92 będzie wydajniejsza od g90. Na pewno pojawienie się tych kart na rynku wpłynie na ceny g80 więc tak czy owak skorzystamy. Największym problemem nie jest wydajność g80 czy g92 tylko brak konkurencji ze strony ati. Wydali opóźniony shit jednocześnie pozwalając nvidi na chwilę zastoju, nie muszą specjalnie wypuszczać nic nowego bo mają najszybszą kartę na rynku (w niższych segmentach ich karty również wypadają lepiej).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pisanie, że traci się na g80 to jakaś dziwna sprawa. Od momentu ich wydania pozwalają grać we wszystkie gry pod DX9 z maksymalnymi detalami w dużych rozdzielczościach. Mało ? I na dodatek mają dx10.

Kiedy pojawił się dx9 to radek 9800 był cudem szybkości ale czy pozwalał na płynne granie w dx9c ? Dopiero seria x1xxx to umożliwiała.

Osobiście mam nadzieję, że g92 będzie wydajniejsza od g90. Na pewno pojawienie się tych kart na rynku wpłynie na ceny g80 więc tak czy owak skorzystamy. Największym problemem nie jest wydajność g80 czy g92 tylko brak konkurencji ze strony ati. Wydali opóźniony shit jednocześnie pozwalając nvidi na chwilę zastoju, nie muszą specjalnie wypuszczać nic nowego bo mają najszybszą kartę na rynku (w niższych segmentach ich karty również wypadają lepiej).

Radeon 9800 nie byl zgodny w ogole z DX9c z SM3, tylko DX9b SM2, nie bylo wtedy nawet zapowiedzi nowych shaderow, dopiero w 2004r. przy okazji premiery X800/GF6800, ktore podzielily rynek, choc te obie serie albo nie wspieraja, albo nie sa w stanie wydajnie pokazac najwieksza nowinke DX9c czyli HDR z precyzja przetwarzania FP16.

W erze dominacji NVIDII najwiecej problemow miala z postepem i rozwojem, konczylo sie to stagnacja i wpadkami, nic nowego nie musza wypuszczac, ale zeby dobrze konkurowac, musza pilnowac tez cen, a te sa juz malo ciekawe.

Edytowane przez morgi

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W erze dominacji NVIDII najwiecej problemow miala z postepem i rozwojem, konczylo sie to stagnacja i wpadkami, nic nowego nie musza wypuszczac, ale zeby dobrze konkurowac, musza pilnowac tez cen, a te sa juz malo ciekawe.[/color]

ATi najzwyczajniej pomaga Nvidii, produkując "odpowiedniki" dla serii GF8 które po pierwsze są mniej wydajne, po drugie w tych samych przedziałach cenowych .

 

2400 / 8500

2600 / 8600

2900 / 8800GTS 640

 

praktycznie żaden z obecnych produktów AMD nie dorównuje kartom NV, AMD również ciekawej sytuacji nie ma na rynku procesorów, nie wygląda to dobrze gdy NV i Intel dominują na wszystkich polach .

 

po GF9 spodziewam się podrasowanych GF8, bo w momencie gdy Ati "śpi", Nvidia starać się zbytnio nie musi

Edytowane przez Gość

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

D8E (G90/G92) będzie podwójna kartą

 

Zgodnie z kolejnymi wyciekami, zbliżająca się nowa karta dla entuzjastów, ma zostać oparta na dwóch płytkach pcb, jak to miało już miejsce w przypadku GeForce 7950GX2. Niestety pomimo procesu 65 nanometrów, dwa układy G90/G92 będą pobierały solidną porcję prądu. Można przypuszczać, że zbliżoną do tej, jaką zadowala się GeForce 8800 Ultra.

 

Projekt podwójnej karty dla jednego gniazda PCI-E, przybliża nas do koncepcji Quad SLi, oferującej jednoczesne wykorzystanie 4 GPU.

 

Na premiere nowego potwora wciąż będzie trzeba poczekać do początku przyszłego roku.

 

Źródło

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Quad sli to jest bardzo drogi krap ;). Najbardziej mnie dobija ze mnóstwo gier nie potrafi w pełni wykorzystać nawet zwykłego SLi. Ale mniejsza z tym. Link do podobnego newsa tylko z fudzilli:

http://www.fudzilla.com/index.php?option=c...5&Itemid=34

 

Mam tylko nadzieje ze podczas premiery nowych kart trafi sie miejsce na karte o specyfikacji i cenie zbliżonej do 8900gs (ze starej tabelki).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ATi najzwyczajniej pomaga Nvidii, produkując "odpowiedniki" dla serii GF8 które po pierwsze są mniej wydajne, po drugie w tych samych przedziałach cenowych .

 

2400 / 8500

2600 / 8600

2900 / 8800GTS 640

Zalezy od p. widzenia

2400pro - 8400/8300

2600pro - 8500

2600xt - 8600gt

x1950pro - 8600gts

2900pro/xt - 8800gts

Natomiast 8800gtx/ultra nie maja pojedynczego rywala, ale przez to cenowo nie sa atrakcyjne, zwlaszcza jak sie popatrzy na ostatnie nowosci w grach, WIC, Bioshock, Collin:DIRT, tam ta roznica cenowa jest zdecydowanie za wysoka, dostajac kilkanascie max. procent wydajnosci trzeba wyplacic o polowe lub wiecej wiecej kasy. Wspomniec trzeba jeszcze kiepskie sterowniki dla DX10, czesto znikoma roznice IQ miedzy dX9/10, przesciganie sie obu firm w optymalizacjach, a NVIDII w tzw. programie tlumaczac z wolna("(jedyny) sposob w jaki powinno sie grac"), CF/SLI ktore lezy w DX10, wypada wlasciwie tylko DX9 porownywac, albo czekac na nowe grafiki.

Edytowane przez morgi

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Kilkanaście?

 

 

Różnica między 8800 GTX, a GTS jest bynajmniej drastyczna. ;] W cenie również.

 

ATi zwyczajnie nie posiada high-endu bo by musiał pożerac 300W. :]

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

D8E (GX2 serii 8 ) dopiero w styczniu 2008 ?

 

http://www.fudzilla.com/index.php?option=c...0&Itemid=34

O i podobno ma być D8M i D8V (czyli duale ale słabszych kart). A może to jednak nie duale.. Juz sam nie wiem.

Edytowane przez yuucOm

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

D9E, GeForce 9 w drugim kwartale 2008r.

 

NVIDIA zdaje się potwierdzać, że D8M i D8E będą tylko ewolucyjnym krokiem naprzód względem obecnych kart GeForce 8, wliczając w to proces miniaturyzacji z 90nm do 65nm. Następną generację kart, czyli D9E ujrzymy najwcześniej w drugim kwartale 2008 roku. Narazie nie wiadomo zbyt wiele produktach, które mają się wtedy ukazać. Przypuszczamy jednak, że NVIDIA przejdzie na jeszcze mniejszy proces technologiczny i wyniesie on 55nm.

 

Jeden z wice prezydentów NVIDII, potwierdził iż do następnej konferencji finansowej (która odbywa się mniej więcej raz na rok), firma wypuści dwa nowe produkty sklasyfikowane jako high-end.

 

Tymczasem potwierdzają się informacje jakoby podwójna karta GeForce 8900 (GX2) oznaczona jako D8E, miała ukazać się w styczniu, a słabsze odmiany produktów 65 nanometrowych, już w listopadzie.

Szykuje się kilka konfrontacji pomiędzy AMD-ATi, a NVIDIĄ. Pierwsza już pod koniec bieżącego roku, a kolejna na początku przyszłego, kiedy to odpowiedzią AMD na D8E, będzie RV670X2.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

czyli w listopadzie lub grudniu, kupie sobie w końcu nową grafę, no i dowiemy się czy ati-amd to trup czy jeszcze mają jakieś szanse zawalczyć o rynek high i middle end, mam nadzieje że z nowym wymiarem zmniejszy się ciepło wydzielane przez karty (co nie zawsze sie potwierdza patrząc na procki core2duo)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Radeon 9800 nie byl zgodny w ogole z DX9c z SM3, tylko DX9b SM2, nie bylo wtedy nawet zapowiedzi nowych shaderow, dopiero w 2004r. przy okazji premiery X800/GF6800, ktore podzielily rynek, choc te obie serie albo nie wspieraja, albo nie sa w stanie wydajnie pokazac najwieksza nowinke DX9c czyli HDR z precyzja przetwarzania FP16.

Właśnie o to chodzi nie był zgodny z dx 9c, tak samo jest teraz nie wiadomo jak ostatecznie DX 10 będzie wyglądał więc nie można mówić, że te karty będą sie do tego nadawać. Na pewno nie będą dawać rady jak już powszechnym standardem będzie dx 10.XX.

Jak już będzie ostateczna wersja DX to wtedy dopiero będą karty które wspierają w pełni wszystkie efekty i dają dobry framrate, a na razie można zobaczyć możliwości dx dzięki kartą serii 8.

 

Ciekawe jakie ceny będą tych nowych kart może wymienię mojego szita wtedy.

Edytowane przez KOFEK

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak narazie to efektów jest więcej niż wystarczająco a ograniczenia są jedynie sprzętowe no i te wynikające z "chęci" programistów. Więc głównie należało by się martwić o wydajnoś kart a wiadomo że od tego trzeba czegoś więcej niż odświerzanie G80 :).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nvidia G92 to GeForce 8800 GT

 

Nvidia zdecydowala sie zmienic nazwe ukladu G92 (D8P) z GeForce 8700 GTS na GeForce 8800 GT. Karta ma 9 cali dlugosci, 8-10 warstwowe PCB jest wyposazona w 1ns GDDR3 pamieci. Pojawia sie 2 odmiany; GeForce 8800 GT 256MB i GeForce 8800 GT 512MB w cenach US$199 i US$249 odpowiednio. Wydajnosc ukladu ma oscylowac na poziomie miedzy GF8600GTS a 8800 GTS 640MB. Jednakze, zdajac sobie sprawe, ze ATI RV670 prezentuje sie znacznie lepiej niz sie spodziewano, Nvidia probuje znaczaco podkrecic taktowanie G92 i stara sie przyspieszyc premiere ukladow, by wyprzedzic konkurencje ze strony RV670.

 

G92 zatem zastapi GF8800GTSy, a RV670 - HD2900, kto wygra? Czy uklady 65nm czy 55nm, do tej pory zdecydowanie lepiej radzily sobie GeForcy mimo, ze wykonane byly w gorszym(?) procesie 90nm.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czyli już ostatecznie g92 to 8800gt ?. No szkoda troche, ze nie bedzie nowego high enda (single nie dual) bo te by staniały.

 

Najlepiej mają ci co kupili gtx'a zaraz po premierze (może cena duża ale wydajność jednak styka i jak sie okazało prawie rok po premierze nadal jest to high-endowa karta...).

Edytowane przez yuucOm

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

8800gt to bedzie bomba

na starcie z taka wydajnoscia to po podkreceniu bedzie killer za male pieniadze

Zalezy od modelu, bo 8600GTS i 8800GTX np. wyszly juz mocno podkrecone i potencjal maja sredni, wszystko tez zalezy od ceny, bo tym razem ten GF bedzie mial rywala na zawolanie. Jedno nie ulega watpliwosci, wreszcie beda dobre, ciche, chlodne i wspierajace DX10.1 i PCIE2 karty. :banana:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Miejmy nadzieję, że NVIDIA nie wyżyłowała zegarów rdzenia, starajac się w ten sposób zrekompensować 256 bitową szynę i dostaniemy zapas megahertzów.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Miejmy nadzieję, że NVIDIA nie wyżyłowała zegarów rdzenia, starajac się w ten sposób zrekompensować 256 bitową szynę i dostaniemy zapas megahertzów.

Najprawdopodobniej to właśnie ta szyna ma spowodować to aby karta podkręcona nie była szybsza od GTxa.

Tyle ze 256 mem to mało , więc jedyna opcja to wersja 512. , z drugiej strony zakup GTS640 teraz to dobry wybór , zanim zniknie z półek sklepowych.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie przesadzajcie z tą szyną 256bit, obstawiałbym ,że taki 8800GTX na takiej szynie nie byłby sporo wolniejszy od 384bit .Kluczowa jest wydajność PS/VS oraz ich ilość.Wyciągajcie wnioski z dotychczasowych specyfikacji - każda generacja kart niskiego segmentu jest porównywalna wysokiej klasy kartami poprzedniej generacji, pomimo posiadania szyny 128bit przez nowy low-end. Wysoka wydajność PS/VS/TMU (wyższe taktowania GPU) powoduje ,ze z powodzeniem konkurują z kartami z szyną 256bit .Tym razem jest podobnie, z tą różnicą ,że zaprojektowanie serii 8xxx zajęła NV 4 lata i trudno oczekiwać, iż nagle dostaniemy coś zupełnie nowego.Teraz, będziemy prawdopodobnie mieć do czynienia z "tuningowaną" i usprawnianą architekturą G80, podobnie jak miało to miejsce z serią 6xxxx-> 7xxx .Także nie przesadzajmy z szerokością szyny, kluczowa jest wydajność samego GPU.Taki G92 pewnie ma obcięte parę klastrów ,a zastosowanie szerszej szyny i tak byłoby bez znaczenia.

Wcale się nie zdziwię, gdy po solidnym OC 8800GT dogoni 8800GTS.Problem w tym ,że NV tym razem może pociąć GPU w taki sposób ,by znacząco to utrudnić.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Już nie ma VS i PS. :P

 

Wpływ ilości SP na wydajności karty, przedstawiłam wykresami kilka stron wcześniej. iXBIT bodajże odłaczał kolejne clustry. Dopiero poniżej 64SP wydajność spada drastycznie.

 

Aż żal, że 8600 nie ma 64stream proccessors. :(

 

Nie zostało jeszcze potwierdzone ile ich będzie miał 8800GT. Podejrzewam, że 96.

Edytowane przez Pussik

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Najprawdopodobniej to właśnie ta szyna ma spowodować to aby karta podkręcona nie była szybsza od GTxa.

Tyle ze 256 mem to mało , więc jedyna opcja to wersja 512. , z drugiej strony zakup GTS640 teraz to dobry wybór , zanim zniknie z półek sklepowych.

Co do 256 to sie zgadzam jest to za mało ale zakup teraz gts640 to też nie jest jakiś super wybór (lepiej juz gtx'a albo poczekać na rozwój wydarzeń).

Już nie ma VS i PS. :P

 

Wpływ ilości SP na wydajności karty, przedstawiłam wykresami kilka stron wcześniej. iXBIT bodajże odłaczał kolejne clustry. Dopiero poniżej 64SP wydajność spada drastycznie.

 

Aż żal, że 8600 nie ma 64stream proccessors. :(

 

Nie zostało jeszcze potwierdzone ile ich będzie miał 8800GT. Podejrzewam, że 96.

Na 95% bedzie to 96SP. Za dobrze by było na 128 za taką cene :P. Tylko oby sie nie okazało ze bedzie 64sp (no chyba ze wydajność bedzie na poziomie gts'a co jest mało prawdopodobne). Edytowane przez yuucOm

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

Ładowanie



×
×
  • Dodaj nową pozycję...