Skocz do zawartości
DrKleiner

Nvidia G92

Rekomendowane odpowiedzi

Z tego co mi wiadomo, to nowy numer z przodu nadaje sie po dojsciu nowych efektow a nie ulepszaniem starej serii. Jeszcze mozemy gdybac, ale nie sadze by karty G92 mialy obsluge czegos, czego nie obsluguje G80. Z drugiej strony Wy tez mozecie miec racje, bo w koncu nowa karta bedzie na PCIE 2.0 wiec kto wie :)

A z tego co mi wiadomo to nowy nr NVIDIA nadaje zgodnie z pierwsza cyfrą kodowej nazwy każdego kolejnego układu.... Tzn. jest tak od czasu kiedy postanowili zmienić nazwy kodowe.... Wcześniej było z tym nieco inaczej.... Tak ze z tego co ostatnio widac to G70=GF7 a G80=GF8 tak że obstawiam ze G9x (a czy to bedzie G92 czy G90 ma akurat najmniejsze znaczenie) to bedzie GF9....

 

I tutaj wcale nie odgrywają roli jakies nowe efekty niespotykane we wcześniejszych układach.... Owszem - moze byc coś (i zapewne będzie) czego poprzednik nie posiada ale nie jest to czynnikiem kluczowym jeśli chodzi o nadanie takiej czy innej nazwy (a w zasadzie numerka)....

Wystarczy popatrzeć na GF6 i GF7.... Różnica miedzy nimi jest jeśli chodzi o jakieś całkowicie nowe funkcje praktycznie minimalna a jednak G70 nie jest GF6900 tylko od razu GF7800....

 

Pozatym GF9800GTX brzmi zdecydowanie lepiej (z marketingowego punktu widzenia) niż GF8900GTX co dla kompletnego laika napewno bedzie czynnikiem który tym bardziej może skłonic do zakupu.... :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tam ba byc 1gb pamięci??? nie wiem po co jak narazie, bo z tego co wiem systemy 32bitowe mogą maksymalnie zaadresować 512mb pamięci graficznej. Więc z tego wynika ze do okiełznania tego potwora potrzebny będzie pełny 64bitowy system.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To się nazywa postęp. Moim zdaniem, już Vista powinna być tylko 64 bitowa. Zmusiło by to programistów do pisania aplikacji pod x64.

Dokładnie, a my nadal bedziemy siedziec w 32bitach bo jest taka wersja visty.

 

Ciekawe ile osob zdaje sobie sprawe z tego ze ich pamiec w 8800 jak do tej pory, nie była nigdy w pełni wykorzystana.

 

no szczerze to nie moge sie doczekac, mialem pakowac sie w komputer we wrzesniu/paz ale wstrzymam sie, mam nadzieje, ze tego potwora flight simulator x juz nie zagnie :blurp:

widze ze nie mozesz sie doczekac :D bo twoj sig miał przed paroma minutami g92 a teraz juz geforce 9. Skad ta pewnosć w nazwie ?? ;) Edytowane przez Plusk

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

:) Ta tabelka jest nieaktualna.... Te GF8900 zawarte w niej miały bazowac na niedoszłym G81 czy G80 w procesie 80nm....

 

Co do samego G92 to na jednym z chińskich forów pojawiło się info jakoby podstawowy model GF9 miał miec taktowanie w okolicach 750mhz a rzeczywisty wzrost wydajnosci ma być podobny do tego jaki miał miejsce w przypadku NV40-->G71....

 

 

Jesli chodzi o r700 to moim zdaniem na dyskusję o tym układie jest stanowczo za wcześnie bo przeciez układ ten ma się pojawić najwcześniej za rok a na przełomie roku lub na początku następnego ma miec miejsce premiera r680/rv670....

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

NVIDIA już robi podwaliny pod GF9800, wypuszczajac GF8600 i 8800 pod PCI-Express 2.0 :)

Producenci płyt głownych się sprężą bardziej ze zrobieniem płyt z nowym slotem, a i większe gorno klientów się skuci na taką płytę.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

NVIDIA już robi podwaliny pod GF9800, wypuszczajac GF8600 i 8800 pod PCI-Express 2.0 :)

Producenci płyt głownych się sprężą bardziej ze zrobieniem płyt z nowym slotem, a i większe gorno klientów się skuci na taką płytę.

A karty PCIE 2 bedą kontatybilne wstecz? Wsadzę takie 8800 w rewizji PCIE 2 do staszego slotu PCIE 1? cosik z zasilaniem sie boje, bo PCIE 2 dostarczy duzo papu i karty nie beda potrzebowac dodatkowego zasilania, problem jest ze PCIE dostarcza papu mniej, wiec karta ktora teoretycznie maja chodzic bez dodatkowego zasilania na pcie 2 to na 1 bedzie problem.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A karty PCIE 2 bedą kontatybilne wstecz? Wsadzę takie 8800 w rewizji PCIE 2 do staszego slotu PCIE 1? cosik z zasilaniem sie boje, bo PCIE 2 dostarczy duzo papu i karty nie beda potrzebowac dodatkowego zasilania, problem jest ze PCIE dostarcza papu mniej, wiec karta ktora teoretycznie maja chodzic bez dodatkowego zasilania na pcie 2 to na 1 bedzie problem.

Tak będzie zgodne wstecz i na odwrót.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Hmm co do niektórych innowacji w G92:

 

- 512-bitowy interfejs pamięci

- układ tesselacji w GPU

/\Jest w R600 i jakoś specjalnie nie poraża zyskiem wydajności ;)

 

- zgodność z DirectX 10.1

- zgodność z OpenGL 3.0

/\ Co ciekawego maja zapewniac te standardy ?

 

- kość EDRAM dla "darmowego FSAAx4"

/\ Nie sadze żeby zawsze był taki "darmowy" ;p

 

- wbudowany układ audio

/\ sry nn...

 

Imho bedzie cos w stylu 6800->7800...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

DX10.1 jednak kompatybilny wstecz

 

Sprawę wyjaśnił przedstawiciel Microsoftu: 'DX10.1 całkowicie wspiera sprzęt pod DX10. Nie usunęliśmy zgodności z obecnym sprzętem. (...) Jest to generalnie uaktualnienie do DX10, które rozszerza odrobinę funkcjonalność sprzętu'. Ufff...

 

Info z: http://www.cdaction.pl/?strona=newsy&newsid=3739

 

No NARESCIE JAKIES DOBRE INFO!! :D JUPII!!

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Hmm co do niektórych innowacji w G92:

 

- 512-bitowy interfejs pamięci

- układ tesselacji w GPU

 

- zgodność z DirectX 10.1

- zgodność z OpenGL 3.0

 

- kość EDRAM dla "darmowego FSAAx4"

 

- wbudowany układ audio

Jeśli układ G92 ma być czymś pomiędzy 8600GTS a 8800GTS , to na pewno nie zobaczymy w/w atrakcji.

Ta specyfikacja bardziej odnosiłaby się do nowego, high-endowego GPU.

z paroma uwagami.

 

512Bit szyna danych-jeśli nowy GPU z nawyższej półki będzie ~50-100% szybszy od G80, to można przyjąć, że jest to możliwe i całkiem prawdopodobne.Bo już po układzie R600 widać ,że 512bit to na ten sprzęt- kwiatek do kożucha.

 

Co do układu EDRAM -IMHO mało prawdopodobne.Po pierwsze ilość tej pamięci w układzie Xenos(X360) jest ściśle powiązana z przyjętą rozdzielczością (720p) z jaką wyświetlana /renderowana jest grafika.Rynek PC to nieco inna bajka, użytkownicy używają różnych rozdzielczości i trudno będzie ustalić, ile tej pamięci ma być.Jeśli zdecydowano by się na pójście na maxa, i wielkość EDRAM-u przyjęto by dla bufora ramki rzędu 2048 x 1536 , to ilość tej pamięci, musiałaby być całkiem spora zważywszy na fakt ,że w Xenosie rozdzielczość 720p, i tak jest zbyt duża w stosunku do wielkości EDRAMU , przez co stosuje się inny typ renderowania -tzw.rendering kafelkowy.

Jakoś nie wydaje mi się ,by EDRAM był konieczny przy 512bitowej szynie danych i dlatego wątpię by to rozwiązanie zagościło w G9X.

 

-co do układu tesselacji-możliwe ,skoro jest w R580/R600 .W przypadku R600 ,inżynierowie z ATI/AMD wybiegli tak daleko w przyszłość ,że nie dość ,że teraz R600 radzą sobie średnio , to gdy ich fajerwerki zaczną być używane przez developerów, na rynku będzie już kolejna generacja kart NV.

Być może tesselator znajdzie się w nowych układach i zacznie być używany-kiedyś tam.

 

-wbudowany układ audio, możliwe -na rynku HTPC takie coś zdobędzie uznanie.

 

A DX10.1 ? Marketingowcy tego nie przepuszczą , choć nowa specyfikacja wymusza np. FSAAx4 w standardzie.

Problem z DX10 jest inny, o ile sprzętu zgodnego z tym API jest całkiem sporo , to ilość osób z zainstalowaną Vistą jest kilkukrotnie mniejsza niż tych, z Win XP i GF8xxx, R2xxx .

Mówiąc inaczej ,duża część devów ma raczej gdzieś DX10- przynajmniej przez najbliższy czas.

Edytowane przez BezbronnyPL

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dla mnie DX10.1 to może i marketing ale powiedzmy szczerze low end jakim są kastraty typu 8600 i 2600 w DX10 kompletnie sobie nie radzą w przyszłości nawet i 8800 będą miały z tym problemy a za nim DX10 będzie szeroko używany wielu ludzi będzie sobie mogło pozwolić na 8800 z DX10 po obniżce cen dzięki wejściu G92 a wiadomo, że DX10 za rok może być już bardzo popularny i pewnie tylko posiadacze G92 będą się mogli cieszyć z pełnej płynności w wielkich rozdziałkach z pełnymi bajerami w DX10. Ciekawe tylko czy G92 da sobie rade z tytułami w DX10.1 czy już będzie trzeba kupować kartę z następną edycją DX10.

Edytowane przez Bloodz

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

DX10,to nie jest żaden marketing, miałem na myśli to , że specjaliści od marketingu, wykorzystają każdą cyferkę wyższą od poprzedniej, jeśli dzięki temu będzie można podwyższyć sprzedaż.

A karty pokroju 8800 to świetne karty, i tylko naiwni kupili ją dla znaczka DX10, większość nabyła ją dla wydajności w DX9, kompatybilność z nowszym API traktując jako pewien gratis . Dość powolna adaptacja DX10 ,wynika z kilku czynników : konieczność poznania nowego DX, nowa architektura GPU i zupełnie inne sterowniki ,a i sama Vista jest jeszcze niezbyt dojrzałym OS-em .W tak krótkim czasie po premierze Visty nie można oczekiwać ,ze pierwsza generacja kart, będzie sobie świetnie radzić w Direct 3D10.

Osobiście od początku traktowałem serie 8xxx jako przejściową(dając temu wyraz zaraz po premierze tych kart) , dopiero nowa generacja GPU może pokazać pazur.Oczywiście trzeba się uzbroić w cierpliwość bo gier czysto DX10, jeszcze długo nie zobaczymy.

A DX10.1 to będzie pewnie taka historia jak z DX8 i 8.1 ,nowe karty będą zgodne z 10.1 ale tak naprawdę wykorzystywana w dużej mierze będzie starsza specyfikacja.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

- kość EDRAM dla "darmowego FSAAx4"

/\ Nie sadze żeby zawsze był taki "darmowy" ;p

Ja użyłbym tu określenia "obowiązkowy" raczej. Gdzieś tam mi się uwidziało, że w DX10.1 ma być AAx4 zawsze i wszędzie "on".

 

Co do postępu, jeżeli różnica będzie taka jak pomiędzy 6800 i 7800, a i ceny zachowają odpowiednie proporcje to będzie syto.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ciekawe jak tak naprawdę wygląd kompatybilność PCIe2.0 ze starszymi mobo, bo z tego co można przeczytać to Asus już coś przebąkuje o braku wsparcia dla nowego standardu na jego mobo z układem P35 (wybrane modele) - Info

 

Seria 9800 ma być podobno "cicha jak mysz" - Info - w końcu ktoś poszedł po rozum do głowy i wywalił suszarki (!), zastanawia mnie czy czasami nie będzie to jakiś układ bazujący dorobku firmu AC, jak wiadomo chłopaki wiedzą co robią jeśli chodzi o dobre i tanie chłodziwo.

 

Jak widać zapowiada się bardzo ciekawy układ:

- wydajność zwiększona x2 (teoretycznie);

- PCIE 2.0;

- bardzo ciche chłodzenie;

- mniejsze zapotrzebowanie na V.

 

Zastanawiam się czy na przełomie września/października nie wystwić aukcji na swojego 8800GTS, bo zapewne cena nowych układów będzie na poziomie aktualnej serii 88xx, a te znowu polecą na łeb na szyję, podobnie jak miało to miejsce z serią 79xx. Pamiętam jak dziś jednego miesiąca mogłem sprzedać 7900GT za 900zł, a za dwa z wielkim trudem dostałem 500zł.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

Ładowanie



×
×
  • Dodaj nową pozycję...