Skocz do zawartości
DrKleiner

Nvidia G92

Rekomendowane odpowiedzi

Już nie ma VS i PS. :P

No tak :) , ale w dalszym ciągu możemy zmierzyć/sprawdzić wydajność kodu dla PS i VS z osobna - 3dmark 05/06 -choć są i inne benche.

Chodzi mi wydajność architeORT: ORT: ORT: ktury, seria 8xxx kod dla PS realizuje praktycznie na tym samym poziomie co 7xxx(z kolei kod VS jest wykonywany znacznie szybciej), ale to co decyduje o ogólnej przewadze, to ilość SP.

 

Co do 256 to sie zgadzam jest to za mało

Za mało? :? To może poczekajmy na 9600GT/S(o ile będzie miał taką nazwę), gotów jestem założyć się ,że przy szynie 128bit będzie wydajniejszy od dzisiejszych topowych kart.

Liczy się tylko przepustowość, a to jaką układ ma szynę ma drugorzędne znaczenie, ważne żeby szyna był dopasowana do możliwości układu .Na przykładzie 2900XT jasno widać, że 512bit ,to w przypadku tej karty marketing i nic więcej.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No to zwracam honor. :D A już myślałem , że nie da się wytłumaczyć ,że szerokość szyny danych nie jest aż tak bardzo istotna ,choć w przypadku high-endu i niebotycznych rozdziałek +FSAA(szczególnie supersampling)zapotrzebowanie na przepustowość jest spore-co jest sprawą oczywistą, dla wszystkich interesujących się tematem.

pozdro.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pierwszy schemat layoutu PCB dla GF8800GT w sekcji rdzenia, widac zmniejszona w stosunku do G80 ilosc ballpinow(styki zasilania i transmisji), dzieki wezszej szynie, ale w porownaniu z RV670 dosc bogato, znamionuje lepsze zaopatrzenie w napiecia i wysokie taktowania czy tez moze spory rdzen, przykryty co jasne identycznym heatspreaderem co G80. :huh:

Dołączona grafika

 

Ballpins:

G80 - 1549

R600 - 2140

RV670 - 1289

G92 - 1150

 

Dołączona grafika

Edytowane przez morgi

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

jak sie prezentuje lepiej w stosunku do r670 jak połączeń ma mniej o 139szt, bardzo cieszy czapeczka aczkolwiek wystarczyłby coppershim znany z kart ati który dostatecznie chroni rdzeń przed ukruszeniem i nie stanowi dodatkowej bariery w transporcie ciepła, w sumie karta na papierze zapowiada się nieźle, i to w nią będę celował z zakupem, chyba że nowy radek (rv670) okaże się lepszy (mniej wydzielanego ciepła + wydajnośc)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

12 listopada odbędzie sie premiera g92, g98 i takie tam. W tym też nowych chipset 780i (który wcale nie jest taki nowy: http://www.fudzilla.com/index.php?option=c...5&Itemid=37 )

 

I wiecej o 780i http://www.fudzilla.com/index.php?option=c...iew&id=3362

Niby 3 gniazda pci-2 i triple sli tylko niech sie lepiej skupią na dobrym singlu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

12 listopada odbędzie sie premiera g92, g98 i takie tam. W tym też nowych chipset 780i (który wcale nie jest taki nowy: http://www.fudzilla.com/index.php?option=c...5&Itemid=37 )

 

I wiecej o 780i http://www.fudzilla.com/index.php?option=c...iew&id=3362

Niby 3 gniazda pci-2 i triple sli tylko niech sie lepiej skupią na dobrym singlu.

Wiecej szczegolow o nowej rodzinie nForce 7set.

Dołączona grafika

MCP72

2x8 PCIe Gen2

3x1 PCIe Gen2

6 SATA/2 PATA

2xHT3.0 Ports+ (serwerowa)

2xGbE MACs (opcjonalne)

12xUSB+

MCP78

1x16 PCIe Gen2

3x1 PCIe Gen2

4 SATA/1 PATA

1xHT3.0 Port

1xGbE MAC

12xUSB

Nazewnictwo:

750a - MCP72.

780a - MCP72+BR04.

750i - MCP72+C55.

780i - MCP55?+C55+BR04.

790i - MCP72+C73.

Uklad mostkowy BR04 to kolejna odmiana mostka PCIE pod SLI, tym razem dla PCIE2.0x16 pod HybridSLI.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

12 listopada ma wejść 8800GT (g92), cena to 199$ za 256mb i 249$ za 512mb, w polsce doliczając 22% VAT, będzie to ok. 650zł za 256mb i 800zł za 512mb.

 

Do wróżek: czy te karty będą dostępne ok. 15 listopada w polskich sklepach po takich cenach, czy będziemy musieli czekać na ogólnodostępną dystrybucję powiedzmy do grudnia, czy za "nowość" zapłacimy na samym początku więcej niż np po 2 tygodniach od premiery? Nie orientuje się jak funkcjonują prawa rynku dla nvidii, dlatego proszę o opinie (wróżbe z fusów;d);)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

15 listopada to chyba nawet w amerykańskich sklepch tego nie będzie. a jak już to bedą się tym szczycić i dobiją ceny +20%.

 

Taka moja opinia.

 

W Polsce w rosądnych cenach to pewnie na początku grudnia lub na gwiazdkę, a Ci którzy chcą wcześniej, jeszcze w listopadzie pewnie będą musieli dopłacić za "expresowe sprowadzenie" kart na polski rynek.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

I wiecej o 780i http://www.fudzilla.com/index.php?option=c...iew&id=3362

Niby 3 gniazda pci-2 i triple sli tylko niech sie lepiej skupią na dobrym singlu.

Przeciez 780i = 680i + mostek pcie2.0. Nawet to samo pcb w referencyjnej mobo jest

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołączona grafika

 

Faster, but how much?

We've got our hands on a page of a presentation about three-way SLI and it looks like it won't have as much to bring to the table as normal SLI does in terms of performance increase.

 

As we don't know which benchmark or how it's represented in the graph below, it's hard to draw any real conclusions apart from the fact that it'll be faster, which is a good thing.

If our interpretation of the graph is correct, then three-way SLI should offer better performance per card than SLI using two cards. We're not sure how Nvidia has managed to pull this one off, nor if this is the case in all scenarios.

 

It doesn't seem to add a full cards performance, but if you compare the size of the graphs you'll notice that the third card adds a bigger bit to the graph than a second card seem to do.

Have a look at the picture and draw your own conclusion. What we'd like to know is what happend to the whole in-game physics thing, Nvidia? AMD?

 

 

 

Teraz zwykły śmiertelnik nie będzie miał szans powalczyć w rankingach na hall of fame futuremark, nie mając do dyspozycji 6tys zł na same karty. :D

A jakie wyzwanie przed Kincem, Kingpinem i resztą. Teraz musza 4 kaskady montować, albo i 5. ;D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dla mnie to będzie wielka porażka jeśli te cepy chcą robić SLI po 3 karty nie jadąc w końcu z cenami nowych kart w dniu premiery w dół. Jeśli do grania na max detalach w przyzwoitej rozdziałce przez rok nie będzie starczała jedna karta za 2K ( tak jak to było w przypadku 8800GTS czy GTX) to dla mnie będzie to duży cios dla graczy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Odnosnie 8800gt to czy bedzie on wydajniejszy od 8800gts?

Nie ma zludzen, do tej pory GT bylo wolniejszym wariantem niz GTS, jest nadzieja, ze po OC spokojnie powinno osiagac moze nawet Ultre, zobaczymy, choc GPU od ATI w 65nm nie podkrecaja sie rewelacyjnie. :-|

Skoro wypuszczaja plyte 3xSLI, to musza chyba przekonac nas wszystkich, ze jeszcze to laczenie kilku kart ma sens, albo to jedyne wyjscia do powiekszania wydajnosci. Spojrzmy na CPU tam po rozum z podkrecaniem poszli dawno do glowy i dokladaja co chwila po kolejnym malym rdzeniu. W GPU to takze nieuchronne, walną karty dual i juz latwy skok, ale na sterowniki nie skieruja sokolego wzroku, a tam SLI i CF lezy i kwiczy.

 

BTW. plotkarze napisali, ze karta wyjdzie jeszcze w tym miesiacu, widac NVIDII zaczelo sie spieszyc.

Edytowane przez morgi

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

NVIDIA przyśpieszyła premierę G92 (D8M) o dwa tygodnie

 

Pierwotnie planowana na 12 listopada, premiera układu graficznego G92 (D8M), odbędzie się już 29 października. Wygląda na to, iż wczesne prezentacje konkurencji, planowane na 4-7 oraz 19 października, skłoniły zielonych do szybszej reakcji.

Układy są już gotowe i wysłane do produkcji, oznaczać to może, iż przyśpieszona premiera, wcale nie będzie wyłącznie na papierze, a karty trafią do sklepów już na początku listopada.

 

Nie wiadomo jeszcze, czy tego samego dnia ujrzymy słabszą propozycję NVIDII, w postaci G98 (D8V). Jednak nie widze żadnych powodów aby miało być inaczej.

Edytowane przez Pussik

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Co mozna powiedziec.. Technika idzie bardzo szybko do przodu, czasem za nia nie nadąrzam ;)

 

Dokładnie technika idzie bardzo szybko tylko nie widzę w tym sensu.

 

 

Już teraz posiadacze kart zgodnych z Direct 10 muszą czekać bo Windows Vista nie nadaje się do użytkowania.

 

Technologia idzie za szybko i trzeba czekać.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tutaj ciut więcej info ze zdjęciem (takim samym jakie podał MeoPL):

http://www.in4.pl/komentarze.htm?news_id=14325

i dodatkowo fudzilla:

http://www.fudzilla.com/index.php?option=c...0&Itemid=34

http://www.fudzilla.com/index.php?option=c...9&Itemid=34

 

Mi sie wydaje ze nowy Radosław (2950pr0) bedzie lepszy ale to samo było z R600.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Trzeba czekać. NVIDIA przesunęla premierę G92 na 29 października, może G98 zostało w kalendarzu na starej dacie (12 listopada)? Ale jaki w tym sens rozdzielać to na 2 premiery?

Chociaż może mają już dawno zaklepane dwa eventy i na pierwszym będzie G92, a na drugim G8 i nForce 780i.

 

Dla rodaków nie znających angielskiego:

 

Zdjęcia GeForce 8800 GT

Ukazały się zdjęcia przedstawiające aktualnie najbardziej oczekiwany produkt NVIDII dla klasy średniej. Gabarytowo (dł. x szer.) karta, jak już zapowiadaliśmy wcześniej, przypomina GeForce`a 8800 GTS i to właśnie te produkty w przeznaczeniu ma wyprzeć na rynku.

 

Nowa propozycja zielonych zawiera w sobie rdzeń wykonany w mniejszym wymiarze technologicznym, 65nm, pracujący z taktowaniem 600MHz. Dość nisko, zważywszy na to iż 90nm układy miały już z 612MHz. Jednak jak zapowiedział producent, ostateczne taktowanie rdzenia zostanie ustalone na podstawie tego, jak spisze się konkurencyjny Radeon HD 2950. Rokuje to mimo wszystko duże możliwości o/c.

Liczba jednostek cieniujących nie jest jeszcze znana, lecz przewiduje się ich ilość w granicach 96-112 (6 lub 7 klastrów, zawierających 24-28 TMU). Pamięci jakie mają zostać użyte to GDDR3 900MHz (1,1ns) w ilości 256 oraz 512MB. Ceny ustalono, odpowiednio na 199 oraz 249 dolarów.

 

Według subiektywnych testów wydajności, karta osiąga 10769 3d marków w najnowszym benchmarku FutureMark z serii 3D Mark. Jednak nie wiemy na jakim sprzęcie. Prawdopodobnie na komputerze wyposazonym w 45nm procesor Intel Core Quad.

 

Dla wszystkich tych, którzy przymierzali się do zakupu karty GeForce 8800GTS 320 bądź 640MB, powinna to być wspaniała alternatywa do rozważenia. Mniejszy pobór prądu, a wiec brak problemów z przegrzewaniem się (to jeszcze zależy od tego, jak się spisze układ chłodzący), wsparcie dla DirectX 10.1, PCI Express 2.0, lepsze wsparcie dla technologii SLi oraz przystępna cena. Trzy karty graficzne GF8800 GT, pracujące w trybie SLi , wg. NVIDII powinny przynieść 2.5 krotny wzrost wydajności.

Edytowane przez Pussik

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Prawdopodobnie nie bedzie high enda od nv w tym roku:

http://www.fudzilla.com/index.php?option=c...5&Itemid=34

Mają dobrze ci co kupili gtx'a na poczatku :|.

A tutaj o końcu 8800gts w wersji 320MB (640MB zostanie w produkcji):

http://www.fudzilla.com/index.php?option=c...6&Itemid=34

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

NVIDIA obawiając się wydajności RV670, postanowiła obniżyć ceny nadchodzacych kart GeForce 8800GT.

Ceny od producentów powinny mieścić się w przedziale $179-199 za wersję 256MB oraz $229-249 za wersję 512MB.

Edytowane przez Pussik

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

G92 has heat problems

 

IT SOUNDS LIKE Nvidia's G92, the next-gen high-end part, is having heat problems. Several people told us that a few weeks ago, they got an urgent letter from NV to send them computers that the new G92 would go in for 'thermal analysis'. Hmmm, makes you wonder, doesn't it?

More interestingly, the OEMs: several told the same story, said they were given about a week to comply, slap it in a box and FexEx that sucker, ASAP. Other than 'thermal analysis' and 'do it now', no explanation was given. That really made uswonder.

It sounds like a cooling problem, not a die problem. The die itself is far smaller than the ~480mm^2 of the G80,. Those seen by our moles are just over 17*17mm or 289 mm^2 on a 65nm process. If you do the math, (.65 * .65)/(.80 * .80) * 480 mm^2 gives you about what you would expect for a more or less simple shrink with a few tweaks.

This means the chip will have approximately the power density of a modern CPU, assuming they didn't up the wattage by a lot. This is quite controllable; if ATI could do it on the X2900XT, the G92 should not pose much of a problem.

So, where does that leave us? I am guessing, and this is only a guess, that the cooler they ordered isn't exactly cutting it on production silicon in a real case. I can't think of another reason why they would have to jump through so many hoops so late in the process.

In any case, word should be leaking soon enough, and we will then know if we have another 5800 or 8800 on our hands. One thing for sure, you won't be seeing them in laptops, especially Montevina ones. µ

 

Rozumie ktoś coś z tego bełkotu i może wyciągnąc dwa logiczne zdania?

 

Narazie mi się udało dowiedzieć tyle, że 8800GT się przegrzewa i NVIDIA kazała odesłac komputery wyposazone w ich nowe karty do nich, gdyż chcą to sprawdzić (pewnie chodzi o Della, IBM i innych pertnerów).

Problem przegrzawającej karty nie tkwi w układzie, lecz użytym chłodzeniu.

 

Kiepski cooler GeForce 8800GT i brak Shader Model 4.1

 

Dziś dowiadujemy się o dwóch nieciekawych rzeczach. Otóż cooler karty graficznej 8800GT, podobno nie spełnia idealnie swojej roli i NVIDIA kazała swoim partnerom (IBM, Dell) odesłać komputery wyposażone w nowe karty, do kontroli termicznej w swojej siedzibie.

Drugą informacją, którą można nazwać plotką, jest rzekomy brak wsparcia dla DirectX 10.1 oraz Shader Model 4.1. Gdyby to okazało się prawdą, a AMD-ATi zaoferowało obsługę nowych technologii. To czerwoni wysuneliby się na prowadzenie technologiczne.

 

 

Gdyby tak potoczyły się wydarzenia, NVIDIA może sporo stracić. Nie jedna osoba pamięta czasy kiedy to GF6800 był wolniejszy od konkurencji, ale generalnie okazał sie produktem dużo lepszym, a to za sprawą wsparcia dla DX 9.0c i Shader Model 3.0. Jednak tym razem różnica technologiczna jest praktycznie tylko czysto marketingowa, bowiem nowy DirectX nie różni się niczym od poprzednika, a tylko wymaga filtrowanie zmiennoprzecinkowego FP32 oraz 4x MSAA.

 

 

G98 jako GeForce 8600GS?

 

Z ostatnich informacji wynika iż dotąd skrycie ukrywany low-endowy układ G98, może otrzymać nazwę handlową GeForce 8600GS. Wypełniałby w ten sposób lukę cenową oraz wydajnościową pomiędzy GF 8600GT, a GF 8500GT.

To co charakteryzowałoby nowy produkt niskobudżetowy to mało skomplikowana architektura, wykonana w procesie 65nm oraz brak konieczności stosowania dodatkowego zasilania. Nawet w przypadku podłączenia karty do PCI-E 1.1.

Edytowane przez Pussik

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

Ładowanie



×
×
  • Dodaj nową pozycję...