Skocz do zawartości
Caleb

Geforce 8800 GTX / GTS

Rekomendowane odpowiedzi

OMG co za bydle :blink: Ten zielony układ z boku przypomina wielkością nv43, w porównaniu do g80 jest conajmniej 2 razy mniejszy :lol: (swoją drogą, ciekawe za co odpowiada). No ale kto wie ile naprawdę krzemu kryję się pod pokrywką : > Miniaturyzacja, tiaaa ...

 

Jeszcze zauważone szczgóły

 

GTX - 2 konektory: >

 

GTS - 1 konektor i krótsze PCB

Edytowane przez janio

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

G80 3DMark 06

 

3DMark Score: 11795

SM2.0 Score: 4783

HDR/SM3.0 Score: 4095

CPU Score: 4419

 

jak te wyniki są prawdziwe :) to testy zapewne przeprowadzono w środowiski 4-rdzeniowym ;)

 

byle do November 7-8 2006

 

Dołączona grafika

Edytowane przez cavarr

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dwa konektory zapewne służą dwudrożnemu przesyłaniu danych pomiędzy kartami (standardowy mostek pozwala tylko na transfer w jedną stronę podczas jednego cyklu)

GTX wyglonda na potworka, bardziej na prototyp niż na kartę gotową do wprowadzenia na rynek (gdzie sie podziały czasy 7800GTX z jednoslotowym chłodzeniem? :( )

Coś tak czuje że z pierwszą serią kart będzie jak z 6800GT/Ultra których ni za cholere nie dało się odpalić w SLI a silnika odpowiedzialnego za odtwarzanie WMV-HD nigdy nie uruchomiono przez co wszystkie filmy HD-WMV/MPG klatkowały :(

Chłodzenie wyglonda na krok wstecz w porównaniu do 7800GTX512/7900GTX/GTO, bardziej przypomina dobrze znaną suszarkę z 6800U, i zapewne będzie głośne (wszystko w sumie wyjdzie w praniu), Co gorsza planowałem ściągnąć ze Stanów GTS-a (lub 2 ;) z pierewszej serii ale z czasem coraz bardziej oddalam się od tego pomysłu z zamiarem czekania na nowe poprawione czipy, i niższą cene

Na domiar złego.. przekonstruowana płytka... i znowu trzeba czekać na bloki wodne które by pasowały... (proc/pam)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

2366266[/snapback]

Ale GX2 to jest 1-dna karta a nie 2 i cena jak za 1-dna.
Gx2 opoiera się na technologii sli bo fizycznie ma dwa oddzielne czipy.

 

BTW ten mały czip na GTS/GTX wyglądający jak g73 może odpowiada za Dx9 podczas gdy większy brat za Dx10?:D

 

Poza tym dlaczego GTS ma tylko jedno złącze na sli podczas gdy GTX ma dwa? Czyżby były jeszcze jakieś różnice oprócz specyfikacji jednostek renderowania, mhz układu i ilości ramu? Czy to może jakieś nowe rozwiązanie pod Quad Sli? A może pod 3 karte?

Edytowane przez -Caleb-

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

BTW ten mały czip na GTS/GTX wyglądający jak g73 może odpowiada za Dx9 podczas gdy większy brat za Dx10?:D

To tylko moje przypuszczenia , być może duża ilość chipów ma uszkodzone procesory video i zastosowano oddzielny chip.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Hmm. Nie wiem czy tak dobrze. Ja na swojej Gx2 mam 10000.

a kto powiedział że pod tym wielgaśnym IHS-em nie ma ukrytych 2 chipów ?? ;-)

jaja sobie robię ale dośc prawdopodobna sprawa (lub mało prawdopodobna)

po premierze pewnie blache ktos zerwie

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Powiedzcie mi czy opłaca sie kupic 7900GTO czy 7950GT, czy pojda na nich nowe gry pod DX10 jak zapowiadaja czy pojda tylko na G80? Niema sensu wydawac ponad 1000zł na cos zbednego na którym nie pograsz w Crisis czy UT 2007 .... czy ten DX10 jest taki straszny jak go maluja, bo nie wydam ~1000zł na cos bezuzytecznego a potem nastepne 2000zł na G80 ;[

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

właśnie ;-), i tak cos mi tu śmierdzi odgrzanym kotletem itp. ot taki poprawiony chip pod DX10

Jeśli są 32PS to owszem. Byćmoże jakieś ulepszenia konstrukcji PS.

Trzeba czekać na oficjalne 'drawingi' siódmego Listopada.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

http://forums.hardwarezone.com/showthread.php?t=1439053

 

.... a tutaj fotki kart MSI :) Nie powiem, wygladają całkiem całkiem :wink:

I tak wszyscy będą czekać na Galaxy z Zalmanami :D

BTW dlaczego zrezygnoweali z chłodzenia takiego jak był na GTX/GTO to nie wiem :|

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

I tak wszyscy będą czekać na Galaxy z Zalmanami :D

BTW dlaczego zrezygnoweali z chłodzenia takiego jak był na GTX/GTO to nie wiem :|

Cóż- może to obecne jest rzeczywiście wydajniejsze??

 

EDIT: http://www.pcdvd.com.tw/showthread.php?t=6...age=4&pp=10

 

Ponoć w rozdzielczości 1600x1200 z AAx4 i AFx8 GF8800GTX osiąga w grze FEAR 80 fps.... Dla porównania GF7900GTX w tych samych ustawieniach ma 47 fps a Radek x1950xtx 55....

Edytowane przez Domell

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Cóż- może to obecne jest rzeczywiście wydajniejsze??

Ponoć w rozdzielczości 1600x1200 z AAx4 i AFx8 GF8800GTX osiąga w grze FEAR 80 fps.... Dla porównania GF7900GTX w tych samych ustawieniach ma 47 fps a Radek x1950xtx 55....

Dla mnie to zadna rewelacja :/. Szczerze oczekuje wyższego przyrostu mocy/fps. Moze to bedzie bardziej widoczne w grach z dx10/9c gdzie nowe karty beda jechały na 10 a stare na 9.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

Ładowanie


×
×
  • Dodaj nową pozycję...