Skocz do zawartości
DrKleiner

Nvidia G92

Rekomendowane odpowiedzi

jakos teraz nie kojarze tego skrotu, ale jezeli chodzi o taki "interface", to w sumie nv ma juz cos takiego - zwie sie to PS3 :) tam polaczenie pomiedzy Cell a RSX jest bardzo "mocne", do tego stopnia, ze imho mozna powiedziec, ze Cell odwala tam robote obecnych jednostek SP w g80 - Cell ma bezposredni dostep do pamieci GDDR. czyli, sa o krok do przodu - moga dac dwa GPU korzystajace z tej samej pamieci, jednoczesnie moga tez juz dzielic "taski" pomiedzy ukladami. byc moze RSX+Cell byl poligonem dla g80 i jego jednostek SP. teraz maja juz odpowiednie GPU moga sie skupic na ich laczeniu

To nie do konca tak, Cell jest zatrudniane przy przetwarzaniu pixel shaderow(duzo mocniejsza sila obliczen 5SPE~>=24PS w RSX), dzierzawi wspolnie miejsce w szybkiej pamieci z RSX i vice versa, niby maja przypisaną a jednak wspolna, ten dostep umozliwia wspieranie RSX w generowaniu ps, natomiast RSX wykonuja takze geometrie. Jednostki wektorowe SPE i ALU w cell i RSX sa bardzo podobne, stad moga wymieniac sie danymi swobodnie. Porownywanie ich z tym co mamy w skalarnych SPU(G80) jest troche nie po drodze, bo arch. PC jest dalece inna niz w PSach, tu z CPU przerzuca sie coraz to wiecej taskow na GPU, a PS3 dziala to w 2 strone; to juz Xbox360 duzo lepiej sie porownuje.

 

Pomysl dobry, ale jest maly zonk, przy przeprowadzaniu danych przez SPU musimy wsiąść pod uwage unifikacje jednostek i koniecznosc czestego cache'owania watkow, do tego stream-out, moze to dzialalo by w przypisanych pixel sh. ale nie jest takie latwe w SPU. Zobaczymy co NVIDIA wymysli.

 

Jeszcze pytanie do Sulaco albo Morgi....

 

Jeśli jest tak jak to opisaliście z tym MCM i możliwą komunikacją między rdzeniami to powiedzcie czy to rozwiązanie jest dużo lepsze (wydajniejsze) od rozwiązania typu SLI czy CF?? I czy nie jest tutaj potrzebne wsparcie sterowników??

I drugie pytanie - czy przy zastosowaniu takiego rozwiązania, jeśli zostaną połączone 2 układy o szynie 256-bit, z 24TMU, 16ROPami i 96-64SP (przykładowo) to układ będzie działał jak układ o 512-bitowej szynie, 48TMU, 32 ROPach i 192-128SP?? Czy np. jeśli chodzi o szyne to przy SLI z tego co wiem nie sumowało się ich szerokości....

Z góry DZIĘKI za odp. :)

W zasadzie to rozwiazanie MCM musi odbywac sie przez nowe rozwiazanie, w klasycznym rozumieniu rozdzial zadan w SLI/CF jest prosty, to utworzenie matrycy podzialu obszaru wyswietlania na rowne pola w roznych konfiguracjach. Plusy i minusy sa znane, obie firmy pracuja nad udogodnieniem w tym temacie, albo sprzetowo MCM pomoze w programowaniu i obsludze sprzetowej nowej generacji HybridSLI lub zastapi zupelnie stare rozwiazania. Dowiemy sie w listopadzie, najprosciej byloby zaprojektowac PCB z rozdzielnymi polami zasilania i transmisji dla MCM homogenicznych rdzeni. Edytowane przez morgi

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

G98 = G86 z magistralą 256bitową i 800MHz GPU - wypełnia segment rynku pomiędzy GF8600GTS, a GF8800GTS

(90nm proces, wydzielanie ciepła wyższe od G86)

 

 

G92 = G80, specyfikacja słabsza od G80, ale wyższe zegary i ulepszone jednostki cieniujące to nadrobią

(65nm proces, wydzielanie ciepła na poziomie GF7900GTX)

 

 

G92x2 = 2 rdzenie G92 w jednej skorupce - wydajność o 50-60% wyzsza od G80, za sprawą niższych zegarów

(65nm proces, duża powierzchnia rdzenia i liczba tranzystorów, nizsze zegary i wydzielanie ciepła na poziomie GF8800)

 

Żródło: moja stronka :P

post-103554-1189306151_thumb.jpg

post-103554-1189306159_thumb.jpg

post-103554-1189306165_thumb.jpg

Edytowane przez Pussik

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To nie do konca tak, Cell jest zatrudniane przy przetwarzaniu pixel shaderow

wszystko sie zgadza :) mi bardziej chodzilo o samo "dzelenie" taskow pomiedzy Cell a RSX, a ze odnioslem sie do g80, to mialem na mysli bardziej kwestie jego "unifikacji", czyli operowanie na roznego rodzaju danych. kwestia czy jednostka jest wektorowa, czy skalarna jest tutaj imho drugorzedna. no, ale nie o Cell mielismy tu pisac ;)

osobiscie jestem bardzo ciekaw, co ati i nv wykombinuja. temat nie jest latwy, a obie firmy jakies doswiadczenie w tej kwestii maja. trzeba poczekac na efekt koncowy

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Hmm :) Radze poczekac do Listopada.... :wink:

Trzymamy cię za słowo :wink:

G92 vs RV670 : 10K 3DMark06

NOVEMBER WILL BE the slaughter place between ATI and Nvidia once again, and the swords will go into fiery battle. This time, the performance difference will be minimal, since both chips are targeting the very same price point, and offering very similar, if not identical features.

Certain Graphzilla minions kept on hyping the G92 as the best thing since sliced bread and a new performance leader, while G92 is now marking a mainstream chip. Mainstream chip that targets 8800GTX in 3DMark06. Performance is estimated at above 9500 3DMarks (2006, not 2005), depending on name of the partner that Nvidia is talking too. We received multitude of different numbers (all very similar), and Nvidia hopes that this policy will get the leaks out. Guys, rather keep the promises your sales reps are telling partners. They're all operating on razor-sharp margins anyway.

 

The name of the G92_290 chip will be the GeForce 8700 GT/GTS, while RV670 should come to market as Radeon HD 2700GT/XT. Fastest G92 board is being developed under codename P393A01, and it will retail for 249 (we expect overclocked versions to be priced at 279 and 289 USD), and cheapest variants will go for 199-229 USD.

 

In short, G92 is simply half a G80, 65nm manufactured chip sitting on a regular 33x33mm BGA packaging, with a lot of things happening under the hood. This is not just your cut-down G80 chip, but rather a combination of higher-clocked part (over 800 MHz), and higher fill-rate than 8800GTS, even though the number of shader units is lower. Nvidia did not cut the number of ROP units, so expect hellish pixel and Texel fill-rate. RV670 took the same receipt as G92 compared to G80: cut the number of R600 units in half and you get RV670. 160 Superscalar shaders consisted out of 32 fatties and 128 regular scalars, blazing high GPU clock... like we said, RV670/G92 are siblings.

 

Both chips are gunning for 512MB GDDR3 memory by Qimonda. Part number for reference boards on both sides call for 1.0ns ones (new HYB chips), which surprised us at best. We did not expect that development of boards is like seeing siblings develop, but carrying different hearts. Both are manufactured at the same place, and same manufacturing process, though.

 

Have you had any doubt, DAAMIT is pitching for very same performance that Nvidia is achieving. 10.000 3DMarks is the whole grail, but 9500 should be doable. Performance estimates were based with Kentsfield machine, so this may change if you overclock the CPU at above 3.0 GHz level (QX6800 works at 2.93 GHz).

 

What is the codename of NV55 now (one that was alleged to us to be the G92 - with nice pictures of a 2-slot monster), remains to be seen. All we know is that this chip will go head to head against R680, both due to be released in Q1 2008. It will be interesting to see what will be the key amount of memory in January - R680 with 512/1024/2048 versus G80 refresh with 768 or 1536 MB. If Qimonda can deliver GDDR5, even a memory type could change, from current Samsung GDDR4 liebling.

 

Funny how cycle is the same, yet different. We would only like to know will Nvidia reset to ATI numbers once they reach 10000 mark after the GeForce name. So far, it is funny to see original 8800 (ATi FireGL, still sitting in my Museum) and compare it to today's 8800. µ

 

P.S. Nvidia is spotting S/PDIF connector on the reference boards, meaning DVI Audio or HDMI adapter is quite a valuable feature to have. DisplayPort is also mucho importando, but not on the RV670 nor G92 reference boards. µ

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No, przebrnęłam przez to. Trudna angielszczyzna. ;|

 

 

Czyli niewiele nowego. ;)

Zmniejszanie jednostek cieniujących w 8800 nie przynosiło dużej straty wydajności aż do 64.

 

http://www.ixbt.com/video3/g80_units.shtml

 

Wykresy wydajności GF8800GTX z zablokowanymi klastrami (każdy klaster ma 16SP i 4TMU)

Dołączona grafika

 

 

A jak wiadomo, różnica w kosztach produkcji między 128, a 64 jest ogromna. :) Do tego 64SP, bedą mogły być wyżej taktowane. Teoretycznie paradoksalnie 64SP moga być wydajniejsze od 128. :D

Edytowane przez Pussik

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Hmm :) Radze poczekac do Listopada.... :wink:

Nikt nie powiedzial, ze w listopadzie ujrzymy highend od NVIDIA. Moze jest cos na rzeczy i sa checi, ale hello NVIDII tez moga sie zdazyc spoznienia, lepiej niech popracuja wiecej niz mieliby wypuscic kolejne karty o wielkich rozmiarach i wymaganiach. Szczerze, to mnie meczy juz ta licytacja na Watty i 3dmarki. :unsure:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nikt nie powiedzial, ze w listopadzie ujrzymy highend od NVIDIA. Moze jest cos na rzeczy i sa checi, ale hello NVIDII tez moga sie zdazyc spoznienia, lepiej niech popracuja wiecej niz mieliby wypuscic kolejne karty o wielkich rozmiarach i wymaganiach. Szczerze, to mnie meczy juz ta licytacja na Watty i 3dmarki. :unsure:

Bez obaw :) Będzie dobrze.... I to w Listopadzie.... Tego roku oczywiście :wink:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

bierz GTX'a i się ciesz :D Ultre sobie raczej odpuść ;P nie sadze zeby w listopadzie cos lepsiejszego wyszło ;)

Dokładnie ... do tego licz opużnienie z premierą w PL + ceny z kosmosu przez pierwsze mc .... o ile wyjdzie coś lepszego..

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Może chemiczny czeka.. nie na nowe karty, a obniżke wywołaną nowymi premierami. Tyle, że jeśli nie wyjdzie nowy high end, to [gluteus maximus], a nie zniżki na górnych półkach.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

jedno jest pewne .... oczywiście mowa o nych kartach ze sklepu.

GTX spadł do poziomu 1900pln i nawet jak wyjdzie coś pomiędzy GTS a GTX nie ma co liczyć na obniżki GTxa no moze z 50pln.

A jak wyjdzie coś szybszego i odpowiednie wolniejsze nowej serii to G80 zostanie wycofany a nie obnizona cena ..... to jest pewne na 100%.Druga sprawa to to że dostępność nowych GPU u nas na rynku w ciągu pierwszego miesiąca będzie kiepska , mały wybór firm i chore ceny ..... na stabilizację trzeba będzie czekać około 3 mc ....

Ale w przypadku gdy nie budujemy całego kompa od podstaw a chcemy tylko grafę zmienić warto poczekać do momentu ogłoszenia oficjalnego co ma dokładnie wyjśc i wtedy podejmować decyzję ....

A na to że ceny GTxa polecą znacznie bym nie liczył ..... chyba że używki z Allegro

Drugą sprawą jest realne porównanie wydajności grafy niby 2x szybszej od GTxa na obecnych procach , gdzie w chwili obecnej na min fps podczas grania w nowe tytuły ma wpływ proc nie grafa ... i nawet C2D postawione na 3-3,5 G jest hamulcem dla GTXa ze względu na spowolnienia obliczeń fizyki w grach ... idealny przykład VIC w DX10 czy DX9 gdzie proc ewidentnie nie wyrabia , a dostaje kopa w momencie zjechania z poziomu fizyki , AA czy AF nie robi wrażenia na karcie czy wielkośc textur a jakość fizyki zabija fps.Dlatego uważam że w chwili obecnej karta 2x szybsza i tak nie będzie w grach zdecydowanie szybsza tylko w syntetycznych testach a grafę kupuje się do grania a nie do testów z reguły.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Może chemiczny czeka.. nie na nowe karty, a obniżke wywołaną nowymi premierami. Tyle, że jeśli nie wyjdzie nowy high end, to [gluteus maximus], a nie zniżki na górnych półkach.

Dokładnie tak nie jest! :D Na obniżkę nie czekam, bo ceny już są zadowalające :)

 

...i wyszło na to, że poczekam zgodnie z tym co "wujek dobra rada" radzi :D

 

btw. do końca miecha i tak mam inne zajęcie niż testowanie nowej grafy, więc potem zostanie już nieco ponad miesiąc :mur:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nvidia G92 is D8P, Priced $199-249

G92 is also known as "D8P" which stands for Desktop 8 Performance and the marketing name is GeForce 8700 GTS as revealed earlier. There will be 2 variants; 512MB and 256MB. The 512MB version costs US$249 while the 256MB version costs US$199. The G92 cards will be using either Qimonda or Hynix 1ns GDDR3 memories. November is going to be interesting with the new GPUs as well as MCP78 chipsets supporting Hybrid SLI and C72/73 chipsets supporting 3-way SLI. AMD is also getting ready their RV670 GPUs to compete against G92 as well as RD790 chipset supporting Tripod and Quad Crossfire.

Nvidia G98 Card To Price Cheaply At $59

Nvidia G98 is also codenamed D8M which stands for Desktop 8 Mainstream will come cheap at US$59. This G98 card will come even cheaper than the current GeForce 8400 GS with only 4 layer PCB. It is meant to put further pressure on ATi low end segment with the RV610 and the upcoming RV620.

NVIDIA G98 Planned to Replace G86 and Compete Against RV620

VR-Zone has learned that the G98 is planned to replace the G86 (8400 GS) as a low-end GPU. The G98 supports PCIe 2.0 and will have 256MB of 2.5ns GDDR2 memory clocked at 800MHz on a 64-bit memory bus. Its performance is expected to be between the G84 and G86 and will compete against the ATI RV620.

Dokładnie tak nie jest! :D Na obniżkę nie czekam, bo ceny już są zadowalające :)

 

...i wyszło na to, że poczekam zgodnie z tym co "wujek dobra rada" radzi :D

 

btw. do końca miecha i tak mam inne zajęcie niż testowanie nowej grafy, więc potem zostanie już nieco ponad miesiąc :mur:

Ja tam nie podzielam zdania Domella i uważam, że nic High-End'owego nie wyjdzie w listopadzie, ba nawet w grudniu może być ciężko :lol2:

Myślę, że nvidia poczeka na ati i nowe karty będą miały premierę gdzieś w 1Q następnego roku :-| , czego nikomu, a nawet sobie nie życzę.

No może coś w stylu GX2 się pojawi, ale G9x Hight-End, raczej nie :?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja tam nie podzielam zdania Domella i uważam, że nic High-End'owego nie wyjdzie w listopadzie, ba nawet w grudniu może być ciężko :lol2:

Myślę, że nvidia poczeka na ati i nowe karty będą miały premierę gdzieś w 1Q następnego roku :-| , czego nikomu, a nawet sobie nie życzę.

No może coś w stylu GX2 się pojawi, ale G9x Hight-End, raczej nie :?

Hmm ale to nie tylko moje zdanie.... :wink: No ale cóż - pozostaje nam tylko poczekać te 2 miechy i przekonać się jak to naprawdę będzie :)

Edytowane przez Domell

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nvidia G92 is D8P, Priced $199-249

Nvidia G98 Card To Price Cheaply At $59

NVIDIA G98 Planned to Replace G86 and Compete Against RV620

 

Ja tam nie podzielam zdania Domella i uważam, że nic High-End'owego nie wyjdzie w listopadzie, ba nawet w grudniu może być ciężko :lol2:

Myślę, że nvidia poczeka na ati i nowe karty będą miały premierę gdzieś w 1Q następnego roku :-| , czego nikomu, a nawet sobie nie życzę.

No może coś w stylu GX2 się pojawi, ale G9x Hight-End, raczej nie :?

O D8P czy M pisze sie od dawna, tak naprawde to najlepsze rozwiazanie, G80 to swietne uklady, ale hej maja swoje duze wady i niedogodnosci. To czy pojawi sie wydajniejsza karta od 8800 czy nie w listopadzie badz za pol roku tak naprawde nie ma znaczenia skoro prawo Moore'a zostaje zachowane w sytuacji gdy co 2 lata mamy podwojenie liczby tranz. czyli zarazem mocy obliczeniowej w mikroprocesorach. Ukatrupic jak najszybciej G80, zastapic je duzo tanszymi w produkcji i uzyciu G9x, a dopiero potem zaszalec. Na Karty typu GX2 czy SLI nie liczylbym rychlo, skoro w Vista obie firmy maja ciagle wielkie problemy ze sterownikami. B-)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@Pussik

piszesz w swoich tabelkach, ze g92 bedzie mial 64 shadery 2-giej generacji, ktore to beda mogly spokojnie konkurowac z 96 lub 128 obecnymi shaderami, i to rozumiem.

natomias w opisie g98, czyli geforcea 8700gts sa wyszczegolnione 32 shadery, lecz nie ma dopisku o 2-giej gen. czy ma to znaczyc, ze bedzie to karta produkowana wg technologii geforce 8, od 8600 rozniaca sie jedynie szyna danych i taktami? bo jesli tak to bieda...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zapowiada sie bieda odnosnie nowych G98.

 

Na STRONIE rozszerzyłam tabelke odnośnie G98, o wariant "low", o którym coraz więcej się pisze. 64bitowa magistrala, pamięci GDDR 2,5ns. Załamka :| Nawet nie warto sobie tym głowy zawracać.

 

 

 

"G98 is for the entry level

 

 

There has been a lot of talk about G92 and many sites reported that this chip is a mainstream part. Our well informed sources have confirmed our previous allegation that G92 is a high end.

 

It should be a faster clocked revised version of the G80 core at 65 nanometre and it should launch in mid November. The G98 is also the real codename and that is the 65 nanometre version of the G86 the 80 nanometre entry level chip. 65 nanometre will help Nvidia to make its production cheaper and the chips cooler.

 

There will be one more G9x chips on 65 nanometre and we believe that G96 is the name. Time will tell."

 

Fudzilla.com

Edytowane przez Pussik

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pussik może dla gracza ta G98 nie będzie warta zainteresowania, ale są ludzie, którzy kupują kompa tylko i wyłącznie do zastosowań media center i to im te karty będą wydawać się interesującymi propozycjami (oczywiście jeśli będą w odtwarzaniu filmów lepsze od chociażby GF8400). Poza tym sprzedawcy mogą zbić niezłą kasę przy upychaniu takich kart niewtajemniczonym w temat :-P

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Hmmm... Chociaż, żeby ATI/AMD jakąś wyraźniejszą dopowiedź na nowe (stare) GF dało, to nawet takie 8400 byłoby szybsze, bo Nvidia może poczułaby oddech konkurencji. A tak to nie ma sensownej propozycji dla przeciętnego-biednego usera na dx10 (4 FPS w demku COH (8600GT) mówi samo za siebie)

Edytowane przez Filax

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Niom. :P

 

 

 

A w te demko COH to nie musisz grac w 2048x1536.

 

Przecież ja gram na ull wsyzskto pod DX9, tylko texturki na high, a nie ultra (owszme, tryb DX10 oferuje cienie 'dx10', ktorych ja nie mam), w 1600x1200 i mam płynność. Poniżej 30fps, ale to taki gatunek, że jest płynnie i tak. 7600GT

 

 

Największą różnica pomiędzy GF8, a nowymi ATi HD to chyba tryb odtwarzania filmów w HD. O ile te obrazki porównawcze, które nie tka dawno obiegły internet, są prawdziwe.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

Ładowanie



×
×
  • Dodaj nową pozycję...