Skocz do zawartości
DrKleiner

Nvidia G92

Rekomendowane odpowiedzi

G92 might be a high mainstream part

 

Now we can say that we are confused with G9x series. One thing is certain, Nvidia plans to launch the new chips, codenamed G92 and G98, in November, but now it looks that G92 is indeed a high mainstream part.

 

Our sources now believe that G92 is the 65 nanometre version that is set to replace 8600GTS and that it can easily be branded as the 8700 card. This card should be faster than GTS but slower than 8800 GTS cards and it should cost between 200 and $250 at launch.

 

If this is true this means that there won't be a Geforce 8800GTX / Ultra replacement in this year.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ta, ale to już było... ;]

 

 

...i nie wróci więcej. ;]

 

 

Trzeba poczekać, już niedługo. <tuptup>

Edytowane przez Pussik

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nvidia 9800 Series Coming Soon

The GeForce 9800 series of graphics processing units, GPUs for short, are based on the video processing chip codenamed G92 that is built by the Taiwanese contractor TSMC, using the 65 nanometer fabrication process. The complex architecture of the graphics chip and its capabilities are responsible for the fact that the G92 has over one billion transistors within. Going further than the 8800 series, Nvidia implemented in the G92 chips the second Generation Unified Shader Architecture as well as doubled precision support in the form of the FP64 technologies. As graphics processing units are now known for their parallel computing capabilities, the manufacturing company decided to make good use of them and integrate the GPGPU as a native technology.

 

Talking about parallel computing capabilities, well, the G92 GPU will hit the one teraflop mark with its shader processing units that comes in a MADD+ADD configuration which translates in 2+1 FLOPS=3 FLOPS per ALU (the shorthand for the arithmetic logic unit). The fully scalar design of the G92 series of GPUs is combined with a 512bit wide memory interface and an extended support for as much as 1GB of GDDR4 graphics memory. Graphics APIs supported are represented by the latest (in fact not yet released) DirectX 10.1 and its open source equivalent, OpenGL 3.0. Other new features of the G92 series are the support for "FREE 4xAA", an audio HDMI compliant chip, a tesselation unit built directly into the graphics core and improved performance and quality output of the AA and AF units.

While pricing for the GeForce 9800 series will vary wildly across the different manufacturers, two price ranges are being shuffled: 549-649 USD for the GeForce 9800 GTX and 399-449 USD for the GeForce 9800 GTS.

A to było :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Było na początku sierpnia. Pierwszy news w ogóle, na moim serwisie. ;]

 

 

Szybko się zapomina, po tych wszystkich plotach o medium-endzie.

 

 

Patrzcie co twojepc wczoraj opublikowało:

 

Serwis OCW dotarł do niepotwierdzonych informacji dotyczących nowych kart nVidii oraz ich cen. Najdroższym modelem będzie GeForce 8950GX2, który najprawdopodobniej będzie wyposażony w dwa procesory, podobnie jak 7950GX2. Na każdy GPU przypadać będzie 512MB pamięci GDDR4. Szacowana cena to 599 USD. Drugą kartą jest GF 8900GTX, która zastąpi obecny model high-end, 8800GTX — taktowanie GPU wynosić będzie 700MHz, a pamięci 2200MHz. Pojawią się także tańsze karty 8900GT i 8900GS o zwężonej do 256-bitów szynie danych i zmniejszonej do 96 ilości procesorów strumieniowych, podobnie jak w modelu 8800GTS. Więcej szczegółów tabelce.

 

Kolumny w tabelce: nazwa układu, taktowanie, typ pamięci, przepustowość pamięci, ilość pamięci, liczba jednostek streaming processor, proces technologiczny, orientacyjna cena (USD).

 

Dołączona grafika

 

 

 

HAHAHA, ta tabelka przeciez jest chyba jeszcze z zeszłego roku.

Chyba ludzie się zbyt niecierpliwią i wygrzebują wszystko co się da, włącznie z redaktorami uznanych portali. :f

 

==============================================================================

FoceWare beta

(datowane na 17 września):

Forceware 163.69 WHQL Win XP 32bit [42.0MB]

Forceware 163.69 WHQL Win XP 64bit [41.6MB]

Forceware 163.69 WHQL Vista 32bit [30.3MB]

Forceware 163.69 WHQL Vista 64bit [68.8MB]

 

(datowane na 10 września):

Forceware 163.67 WHQL Win XP 32bit [41.9MB]

Forceware 163.67 WHQL Win XP 64bit [41.9MB]

Forceware 163.67 WHQL Vista 32bit [30.7MB]

Forceware 163.67 WHQL Vista 64bit [43.7MB]

 

 

Troche urosła wersja dla Visty 64bit

Edytowane przez Pussik

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

G90 bedzie produkowany w wymiarze technologicznym 45 nm ,oblugiwal bedzie dx 10,2 oraz shader model 4,2 .

ukaze sie w 2 kwartale 2008 pod kodowa nazwa geforce 9900 gtx turbo i 9900 gti

 

 

Call of Juarez DX10 ma osiagac 450 fps

 

Gddr 5 (samsung) 3066 Mhz (M610AxDQ4455)

 

Gpu Quad Core 4 x 1300 Mhz

 

Lutowany na plytach opartych na najnowszej technologi wykorzystujacych specjalne wlokna odprowadzajace nadmiar ciepla z wewnatrz ukladu

 

Nvidia narazie nie chce zdradzic swych planow gdyz obawia sie przez to totalnej plajty 9800 gtx i gts ,ktora ma byc wersja przejsciowa pomiedzy 8800 i 9900.

 

Kto nie wierzy i umie czytac to prosze bardzo....

 

Link do strony http://www.4gamer.net/review/geforce_8800_...800_ultra.shtml

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

Nvidia narazie nie chce zdradzic swych planow gdyz obawia sie przez to totalnej plajty 9800 gtx i gts ,ktora ma byc wersja przejsciowa pomiedzy 8800 i 9900.

 

Kto nie wierzy i umie czytac to prosze bardzo....

 

Link do strony http://www.4gamer.net/review/geforce_8800_...800_ultra.shtml

Nie wiem stary co paliles( ale tez to chce!! )ze potrafiles z japonskiego newsa o wypuszczeniu serii 8800 ultra wyciagnac informacje wypisane powyzej :blink:

 

babelfish dla niedowiarkow ;>

Edytowane przez Pwael

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

G90 bedzie obsługiwał lodówki i mikrofalówki firmy Amica

Będzie czerpał mało prądu bo wykonanie w technologi ciosania siekierą do czegoś zobowiązuje, będzie miał taką moc i tyle pamięci oraz taka przepustowość że mikrosoft zastanawia sie czy nie wlaczyc na viscie trybu aero juz podczas startu kompa!!! oraz co najważniejsze w BIOSIE!!!!

Jego przepotężna turbina o prędkości obrotowej 10.000 jak zapewnia Nvidia nie jest taka głośna, a jej moc mimo pozornie małego wydzielania ciepła jest tłumaczona zamieszczeniem filtra Hepa na wylocie!!! dlatego na pudełku pojawi się magiczna naklejka FOR ALLERGICS!!!

 

NIewiezycie przeczytajcie na

www.dajciesesiana.pl

 

mam wrazenie ze niektorzy lubia spekulowac i podniecaja ich takie plotki...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

"Premiera G92 w listopadzie

 

G92, czyli GeForce 9800, bądź GeForce 8900, ma mieć swoją premierę pod koniec listopada. Najwyraźniej, karta wystąpi w dwóch wersjach, z czego druga, nie wyjdzie na światło dzienne przed styczniem przyszłego roku.

 

Można przypuszczać iż NVIDIA planuje kilka premier. 12-stego listopada powinniśmy ujrzeć odświerzone GeForce 8800 i 8600 pod PCI-E 2.0 oraz być może najsłabsze układy z serii G9x (G98?), a niespełna dwa tygodnie później gigant z Santa Clara powinien uderzyć ciężką altylerią, ujawniając GeForce 9800 (G92), które może być architektonicznym odświerzeniem G80 (GF8800) w nowym wymiarze produkcyjnym, lub tak zwanym high endem.

Model wypuszczony w styczniu może być tylko przypieczetowaniem dominacji na rynku układów graficznych. Czymś w rodzaju GF 8800 Ultra."

 

Źródło: geforce9.pl

 

 

"AMD-ATi już w następnym miesiącu ma zamiar wysłać do swoich partnerów, chipy RV670 w dwóch wersjach: PRO oraz XT.

 

Słabsze modele, wyposażone w RV670 PRO, mają być produkowane z trzema różnymi konfiguracjami pamięci, przez partnerów AMD (takich jak np. Sapphire), podczas gdy, mocniejsza wersja XT, będzie wytwarzana przez AMD-ATi we własnej 'osobie'.

 

Oby oznaczało to szybkie znalezienie się nowych kart na sklepowych półkach. Gdyż ostatnie premiery na papierze, napewno nie robiły dobrego wizerunku firmie."

Edytowane przez Pussik

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

"G92 sfotografowany

 

Na odbywającej się imprezie Intel Developer Forum, NVIDIA zaprezentowała pierwszą kartę wyposażoną w nowe wyjścia Display Port. Przedstawiony produkt, oprócz analogowego wyjścia D-Sub, dla monitorów CRT, posiada także dwa zgrabnie wyglądające złącza nowej generacji, dla wyświetlaczy HD.

 

Karta jak widać na fotografii jest jednoslotowym urządzeniem, skromnych rozmiarów i co łatwo zauważyć, nie wymaga dodatkowego zasilania. Co odrazu nasuwa na myśl 65nm proces technologiczny, przy produkcji rdzenia.

 

Nie wiadomo, czy złącze PCI Express, zaprezentowane w tej karcie, nie jest portem drugiej generacji. Wizualnych różnic pomiędzy PCI-E 1.1, a 2.0 nie będzie, a wyjaśniałoby brak konieczności stosowania zewnętrznego zasilania. "

Źródło

 

post-103554-1190323925_thumb.jpg

Edytowane przez Pussik

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Do końca roku i tak nic ciekawego nie wyjdzie , no chyba że alternatywa dla 8600 , może 8800GTS320.

Po drugie jaki by to proces nie był 90 czy 65 przy wydajnej grafie musi mieć dość mocno rozbudowany układ zasilania...karta np 2x szybsza od GTxa wykonana w 65 i tak nie zejdzie poniżej 180W.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale 8800 GTS w 65nm może mieć teoretyczny pobór prądu na poziomie 70-80W, a praktyczny jakieś 60W.

 

Pamiętajmy, że to PCI-E 2.0 chyba. :>

 

 

Tak czy siak, nie jestem przekonana, czy to już G92, czy nie poprostu G8600 z DisplayPortem i PCI-E 2.0, stąd brak dodatkowego zasilania.

Edytowane przez Pussik

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Radeon HD 2900 PRO w ograniczonych ilościach

 

Według dość wiarygodnych źródeł, wynika iż najnowszy produkt AMD-ATi, a zarazem ostatnia karta graficzna jaka zostanie zaprezentowana w tym roku, będzie produkowana w ograniczonych ilościach, przez bardzo krótki czas. Niektórzy producenci dostana mniej niż 5000 sztuk układu R600 dla HD 2900 PRO.

 

Wyjaśnia to fakt, iż AMD nie zrobiło żadnego szumu wokół 'premiery' Radeona HD 2900 PRO. Nie należy się jednak dziwić, jest to przecież tylko Radeon HD 2900XT z obniżonymi zegarami. Więc jeśli chcecie nabyć Radka XT pod nazwą PRO i w niższej cenie, to się lepiej pośpieszcie.

 

No nie wiem czy ma z tym konkurować. :-I

Chyba tylko w recenzjach.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

IDF 2007: New codename scheme, again

 

We wrote about D8M in June and you can read about it here. It is a mainstream card that Nvidia plans to reveal in November. The high end part won't be codenamed G92 and it will be known as D8M where D stands for Desktop, 8 for the eight generation and finally E as an Enthusiast.

 

D8M and D8V where V stands for Value comes in November while the high end part will be pushed in early 2008.

 

The cards support Display Port, PCIe 2.0 and DirectX 10.1 and it is the 65 nanometre part."

 

 

Nawet twardy elektorat plotkarski przeszedl na wlasciwe nazewnictwo i potwierdzil od dawna opisywany brak w tym roku nastepcy GF8800, beda tylko D8M(GF8700) i D8V, na D9E poczekamy spokojnie do wiosny przyszlego roku.

Edytowane przez morgi

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale 8800 GTS w 65nm może mieć teoretyczny pobór prądu na poziomie 70-80W, a praktyczny jakieś 60W.

 

Pamiętajmy, że to PCI-E 2.0 chyba. :>

Tak czy siak, nie jestem przekonana, czy to już G92, czy nie poprostu G8600 z DisplayPortem i PCI-E 2.0, stąd brak dodatkowego zasilania.

skoro karta ma być kompatybilna z 1 to nie może przez pci-e ciągnąć więcej prądu niż są możliwosci jedynki ,

musi mieć wtedy dod zasilanie , co do wykonania to wątpie aby GTS w 65 pobierał tylko 70W.Będzie mniej ale nie tyle.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A czemu by nie 70W? :P

GF 8800GTS to w praktyce przecież 'tylko' 110W

A nowe 8700/8800 mają mieć mniej stream processors, a więc i tranzystorów.

 

Pozatym nawet GF8600GT , które pobierają bodaj 41W, mają dodatkowe zasilanie.

 

 

Dołączona grafika

Dołączona grafika

 

 

Teraz D8V, D8M, D8E, a GeForce 9800 w przyszłym roku

 

Im bliżej premiery nowych kart, tym sytuacja kształtuje się coraz wyraźniej. Niektóre plotki okazują się bliższe wprawdzie, inne dalsze. Najnowsze przecieki wyjaśniają i rozwijają oznaczenia, które jakiś czas temu cichym echem obiły się po Internecie.

 

D8V - desktop 8 (series) value

D8M - desktop 8 (series) mainstream

D8E - desktop 8 (series) enthusiast

 

Nadal nie wiadomo dokładnie, jaka wydajność i jakie nazwy sklepowe kart kryją się pod "value", "mainstream" i "enthusiast". Prawie pewne jest jednak to iż, w listopadzie ujrzymy jedynie produkty z niższej i średniej półki cenowej, a na tak zwany high-end należy poczekać do początku przyszłego roku.

 

Jest to niewątpliwe wielkie rozczarowanie dla osób, zwlekających z zakupem GeForce 8800GTX, lecz całkiem dobra nowina dla ludzi wypatrujących GF 8600. Gdyż najprawdopodobniej mainstrem NVIDII wypełni lukę pomiędzy 8600, a 8800.

 

Karty zaprezentowane w listopadzie mają być wykonane w procesie 65nm, wyposażone w Display Port i PCI Express 2.0.

Edytowane przez Pussik

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Masz rację, lecz wartości podawane przez producentów są MAXYMALNYMI, jakie może osiągnąć karta w przypadku gdyby pracowało 100% tranzystorów. W praktyce niemożliwe jest napisanie programu wykorzystującego każdy tranzystor układu w tym samym czasie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Masz rację, lecz wartości podawane przez producentów są MAXYMALNYMI, jakie może osiągnąć karta w przypadku gdyby pracowało 100% tranzystorów. W praktyce niemożliwe jest napisanie programu wykorzystującego każdy tranzystor układu w tym samym czasie.

Dokladnie to mozna rozwinac, gdyby engine GigaThread rozsylania watkow i rozproszenia instrukcji dla klastra shader byl bardziej wydajny, a nie nastawiony na szybkie przelaczanie w idle, to spokojnie dotarlyby slupki w poblize HD2900. To sprytny chwyt, skalarnym jednostek latwiej przypisac kazda instrukcje, choc trzeba angazowac ich wiecej w bardziej zlozonych obliczeniach, czasem w wiekszej liczbie cykli obliczeniowych.

Sa takie testy syntetyczne, ktore potrafia "zapchac" kazda sekcje blokow ukladu GPU, natomiast w normalnych zoptymalizowanych aplikacjach wychodzi duzo lepiej, dzieki lepszemu rozlokowaniu i wykorzystaniu CMOS:

Dołączona grafika

Edytowane przez morgi

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

CMOS`y sa w GPU?

 

 

Nie chodzi o sposób wykorystania wszystkich stream processor, bo to podejrzewam jest jak najbardziej realne, lecz o używanie każdego z 681mln tranzystorów w G80. :)

 

Czyli trzeba wykluczyć latencje (opóźnienia) podczas przypisywania zadań jednostkom cieniującym oraz tak zrównoważyć tekstury by zajęte robotą były wszystkie 32TMU i 24 ROPy (to możliwe wogóle?). Dla single texturing wąskim gardłem będą 24 ropy, a dla multi (2pass) już TMU. Da się to wyposrodkować aby równo połowa obiektów korzystała z single texturing, a druga połowa z 2pass multitexturing?

 

Jak nie raz już wypowiadali się inżynierowie. Jest to niemożliwe. :) Bo napewno w takim układzie jest jeszcze masa bloków o których wiedzą sami inżynierowie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

w sumie to mnie nie interesuje jaki będzie pobór mocy, tylko czysta wydajność, no i oczywiście żeby obsługiwało dx10 (a nie działało pod dx10, jak ma to miejsce teraz)

ps. puuss awartar foto its really

?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

nice, mój to tylko charakter ( w końcu -40% na forum do czegoś zobowiązuje), heh po raz pierwszy widzę ładną dziewczynę :), która się zna na kompach pozdro

 

ps. sorry za offtop, ma nadzieję że chłopy zrozumieją moja fascynacje Pussikiem

 

trochę zmieniłem, mysle że lepiej

Edytowane przez ptys

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

Ładowanie



×
×
  • Dodaj nową pozycję...