Skocz do zawartości
DrKleiner

Nvidia G80 I Ati R600

Rekomendowane odpowiedzi

Niepotrzebnie podobny temat założyłem więc moje pytanie przenosze tutaj :)

 

Nasuwają mnie wątpliwości na temat Kart graficznych z DX10 które niedługo mają wyjść. Jak wiadomo nowe karty graficzne mają nie działać "wstecz" więc NVIDIA 8*** będzie całkowicie od podstaw nową kartą. Ale czy ja się dobrze orientuje a raczej czy się dobrze dowiedziałem że ma tylko działać na nowych Windowsach - Windows VISTA które ma być pierwsza wersja na przełomie listopada i grudnia??

Druga sprawa czy gry naprzykład które zapewne za jakiś czas po wejściu NVIDI 8*** będą potrzebowały DX10 to już na GF 7*** będzie lipa czy raczej producentom gier nie będzie się spieszyć z przestawieniem gier na DX10 jak na PS2 na PS3??

Edytowane przez Radzyn

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z tego co się orientuje to:

- karty będą kompatybilne wstecz

- G80 nie będzie całkowicie od podstaw nową kartą

- będą działać bezproblemu na Xp

- wysyp gier na Dx10 będzie pewnie za około rok

Edytowane przez -Caleb-

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z tego co się orientuje to:

- karty będą kompatybilne wstecz

- G80 nie będzie całkowicie od podstaw nową kartą

- będą działać bezproblemu na Xp

- wysyp gier na Dx10 będzie pewnie za około rok

Dokładnie B-) jak karty by nie były zgodne wstecz to nie było by w co grać po premierze.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mnie też się tak wydaje bo by na tym stracili bo by który gracz kupił tą karte. Ja tam zamierzam kupować 7900 lub 7950 i mam nadzieje że potanieją (oby sporo potaniała 7950) wraz z wejściem NVIDI 8

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Kurde to z deka lipnie :/. NIe wytrzymam tyle czasu na FX'ie (chyba oddam sie przez ten rok tylko nauce :P). Czekam na g80 ale tez na r600 bo chce kupic to co bedzie lepsze.. Oby jakmiś cudem obie karty wyszły w tym roku.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Szkoda , że nie pokazali karty bez chłodzenia to wtedy bym wiedział , czy dwie wtyczki zasilające są związane z tak dużym zapotrzebowaniem na energię , chłodzenie wspomagane wodą to bardzo dobre rozwiązanie

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Szkoda , że nie pokazali karty bez chłodzenia to wtedy bym wiedział , czy dwie wtyczki zasilające są związane z tak dużym zapotrzebowaniem na energię , chłodzenie wspomagane wodą to bardzo dobre rozwiązanie

wg mnie 2 złącza PCIE są dla bezpieczeństwa, a nie dlatego, że karta będzie pobierać ogromne ilości energii :lol2:

dla przykładu GF6800 ma dodatkowo 1 molex, a pobiera tylko 40W

samo gniazdo pciex16 może dostarczyć 75W

 

Dołączona grafika

jak widzimy na powyższej fotce karta może obsłużyć 12 modułów pamięci co potwierdza cześć poprzednich newsów, że karta będzie wyposażona w 786MB pamięci(12x64MB)

384bitowa magistrala pamięci też staje się logiczna, gdyż pierwsza 256bitowa posiadałaby 512MB, a druga 128bitowa odpowiednio 256MB

 

newsy mówił też o 1GB, ale to jest raczej niewykonalne dla 12 modułów pamięci, gdyż każda z nich musiałaby posiadać w przybliżeniu 85MB

 

małe porównanie do 7900GTX, ale pamiętajmy jeśli nie jest to fake, to jest to pewnie wczesna wersja inżynieryjna i jeszcze wiele może się zmienić :)

Dołączona grafika

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na tej mobo nie wiele zadział sam musze wymienić tego asrocka !! bo ogranicza mi karte w ...

Jak ci ogranicza karte ?

 

A co do g80 to dla mnie bida z nędzą :/. Wiekszą niech zrobią jeszcze :lol:. Dla mnie fake jak nic (jak nie to brawa dla nv za rozwój). Jak narazie to idze w złym kierunku :/.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak ci ogranicza karte ?

 

A co do g80 to dla mnie bida z nędzą :/. Wiekszą niech zrobią jeszcze :lol:. Dla mnie fake jak nic (jak nie to brawa dla nv za rozwój). Jak narazie to idze w złym kierunku :/.

Karta niema takiej wydajności jaka powinna być :( szkoda gadać :( smarki zaniżone CS:S zaniżony, BF2 tak samo poczułem leciutki przyrost wydajności w porównaniu do 6800 mobo wymieniam w najbliższym czasie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Sorki za ot ale musze spytać ;).

Ten asrock moze nie obsługuje 1900xt ? Moze bios nie ten ? Chociaż to by było dziwne :/. Daj znać jak zmienisz mobo i jakie wyniki bo to bedzie ważne dla mnie . Nie dość ze zasilke i bude bede musiał kupić pod g80/r600 to teraz by miała dojść płyta ehhh :?.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

(jak nie to brawa dla nv za rozwój). Jak narazie to idze w złym kierunku :/.

mi sie wydaje ze wieksza karta to nie powod do płaczu, mam tylko nadzieje ze kiedys zaczną minimalizować pobór energii bo R600 juz ma miec kosmiczny i wiekszy niz NV80 a wszystko to bedzie powodować ze trzeba bedzie duze ilości energii dostarczyć a później co gorsze odprowadzić w postaci ciepła :blink:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

UFFF! zostanie mi całe 15mm. do prowadnic 3,5" Czyli po wymianie na 0,5 KW zasiłkę będę mógł używać potworów następnej generacji :D Ale w takim tępie wzrostu kart na G90 będzie trzeba wyrąbać dziurę z przodu budy :lol:

 

co do chłodzenia to ta suszara wygląda dla mnie groźnie, takie turbiny do pracy potrzebują dosyć wysokich obrotów, a i ciche z natury nie są :unsure:

Edytowane przez M4TEUSZ

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak ci ogranicza karte ?

 

A co do g80 to dla mnie bida z nędzą :/. Wiekszą niech zrobią jeszcze :lol:. Dla mnie fake jak nic (jak nie to brawa dla nv za rozwój). Jak narazie to idze w złym kierunku :/.

Bo narazie jak widze to nie ma sensu pchać się Nvidie 8 lepiej teraz kupić spokojnie dobrą grafe i przeczekać rok jak się rozwinie sytuacja z kartami na Dx10

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zaczyna się pojawiać coraz więcej informacji i co istotne bardziej konkretnych na temat G80.... Dailytech podał specyfikację (ponoć oficjalną) G80....

 

--------------------------------------------------------------------------------

 

8800GTX

575MHz Core Clock

900MHz Mem Clock

768MB GDDR3 memory

384-bit memory interface (86GB/s)

128 unified shaders clocked at 1350 MHz

38.4 billion pixels per second theoretical texture fill-rate

450W PSU Recommended

Hard launch in second week of November

 

8800GTS

500MHz Core Clock

900MHz Mem Clock

640MB GDDR3 memory

320-bit memory interface (64GB/s)

96 unified shaders clocked at 1200 MHz

?? billion pixels per second theoretical texture fill-rate

400W PSU Recommended

Hard launch in second week of November

 

 

jak widać będą 2 wersje tej karty-NV jednak troszkę zmieniła nazwę słabszego modelu dodając do nazwy GT literkę S (może GT jest zarezerwowane na jeszcze słabszy model)....

Rzeczą która od razu rzuca się w oczy to info dotyczące Shaderów a konkretniej ich taktowania które jest ponad 2 razy wyższe niż takty rdzenia a co więcej według tego źródła mają one być zunifikowane (a miało być ponoć inaczej).... Bardzo dziwna jest również wielkość pamięci zwłaszcza w modelu GTS....

Cóż-pozostaje nam tylko czekac na jakieś przecieki dotyczące wydajnosci nowych kart a przypomnę że według pirwszych informacji G80 ma być 2x wydajniejszy niż GF7900GTX co oznaczałoby tak duży skok wydajności jak w przypadku NV40 i NV35....

 

Pozdro.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Niby do GTSa zalecany 400W więc lajcik. Większość się załapie. :)

Pytanie tylko po ile taka karta. Normalny użytkownik poczeka na wersję 86** pewnie jakiś rok albo dłużej - tak jak było z 6600. Nie wierzę jedynie w taki skok wydajności - raczej to będzie tak jak pomiędzy 6800 a 7800 - czyli dawny high end na poziomie nowego mid-endu. Ponadto w czym to będzie mierzone - w DX 9 czy w DX 10 ? Bo jeśli w tym drugim to przewaga (i to miażdżąca) pewnie będzie ;-)...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach




×
×
  • Dodaj nową pozycję...