Skocz do zawartości
Caleb

Geforce 8800 GTX / GTS

Rekomendowane odpowiedzi

Problmy problemami, chcemy poprostu udowodnic ze nie trzeba sie spieszyc z kupnem karty, bo to tylko strata pieniedzy, a zaoszczedzone pieniadze dzieki temu, ze ktos sie nie spieszył, zawsze bedzie mozna przeznaczyc na dodatkowa czesc do kompa, tylko o to tutaj chodzi.

No to jest oczywiste. Problem w tym, że jeżeli będzie kogoś stac na 8800GTX to na Hi-endowy cpu i duzo ramu pewnie też.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Prawda, ale z drugiej strony, tak na chłopski rozum - czy na kartach powyżej X1900XT jakikolwiek tytuł źle chodzi? Pomijam tu oczywiście jakieś zupełnie odjechane próby gierczenia w rozdziałkach pow. 1600x1200. Nie sądzę by Crysis nawet w 1280x1024 z AA/AF klatkował na takich grafach, karmionych dodatkowo świetnymi skądinąd C2D.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nvidia's G80 has problems

 

SLI and HDCP broken for now

 

By Charlie Demerjian: poniedziałek 23 października 2006, 09:03

NVIDIA IS GIVING out G80 cards to editors' day attendees but no real drivers. Why on earth would Nvidia need to do that?

 

What is broken? Well, it seems G80 has a lot broken, some that will be fixed before launch, and some may be harder to fix.

 

Drivers on the 25th October will fix SLI, as we understand it is pretty badly borked in the current release. How badly? Enough to crash almost every time, said one source, and so basically unusable.

 

We have a lot of confidence this will be fixed before launch, possibly in the driver set we told you about earlier. I would only rate this as a corporate embarrassment that will hopefully never leak due to "strong and respected NDAs". The "editors" are wearing chastity belts designed to preserve the new Dawn's virginity.

 

The more troubling news is that we hear HDCP is badly borked in the first rev. Since we are not sure if this problem is hardware or software, if you care about jumping on the DRM infection train, you might want to look long and hard before you buy a G80.

 

Nvidia has something of a history of shipping broken functionality and not so much as correcting it on the box. Wait for independent reviews from people not wearing chastity belts that test this before you buy.

 

Last up, we hear that in the forthcoming 95 series drivers the classic display panels are gone for good. We plan to be holding a candlelight vigil for them at One Inquirer Tower on All Hallows Eve. Punch and pie will be served, along with mournful singers and a goth/emo kid moping in the corner.

ps

panowie to jest temat o opłacalności kupna high-endowych kart czy o Geforce 8800 Gtx / Gts ??

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Już sprawdzałeś?

nie, ale łatwo to wywnioskować ze screenów i

 

Recommended Requirements

 

CPU: Dual-core CPU (Athlon X2/Pentium D)

Graphics: Nvidia 7800GTX/ATI X1800XT (SM 3.0) or DX10 equivalent

RAM: 1.5Gb

HDD: 6GB

Internet: 512k+ (128k+ upstream)

Optical Drive: DVD

Software: DX10 with Windows Vista

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

nie, ale łatwo to wywnioskować ze screenów

B-)

 

CPU: Dual-core CPU (Athlon X2/Pentium D)

Graphics: Nvidia 7800GTX/ATI X1800XT (SM 3.0) or DX10 equivalent

RAM: 1.5Gb

HDD: 6GB

Internet: 512k+ (128k+ upstream)

Optical Drive: DVD

Software: DX10 with Windows Vista

Z tego co wiem to są zalecane wymagania do gry przy niezłych ustawieniach w Dx9 i autorzy kilkukrotnie zażekali się że tak jest i będzie. Może dadzą ciała a może nie - ja tego tak nie oceniam dopuki nie zobacze na własne oczy - po FC jestem w stanie w to uwierzyć.

 

8800 GTX (~12k w 06) ma być szybszy od najmocniejszego obecnie GX2 a więc spoooro od 7800 GTX ... poza tym te wymagaia które podałeś są chyba z lekka idiotyczne ... S.M 3.0 i Dx10? LoooL a nie powinno być S.M 4.0 - S.M 3.0 + Dx10 to wogóle ma sens?

Chyba im się pokiełbasiło coś :>

Do tego bądzmy poważni - Vista niezbędna? chyba raczej nie :> Co prawda Dx10 prawdopodobnie nie będzie ale co z tego?

G80 znakomicie dawać sobie radę również w Dx9C który wykorzystany w pełni i tak wygląda cudownie :]

A poza tym wydaje Ci się że Crytek wyda grę która na topowej karcie będzie kszaczyć w max detalach w 1280?

Wydaje mi sie że ludzie z Cryteka juz mieli styczność z układami Nv i wiedzą na co je stać jako że bedzie to jeden z pierwszych produktów po nowe api i pupilek Visty (z Dx10) - co za tym idzie dostosują wymagania do dostepnego sprzętu - ciekawe logo jakiego producenta hardwaru ujrzymy przy starcie ^^

Z resztą się obada za niedługo :>

Edytowane przez -Caleb-

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale o jakie topowe karty Ci chodzi ?? chyba nie o 7800 GTX, X1900XT bo w dniu premiery Crysisa na pewno one nimi nie będą :] Data premiery Crysis jest przewidziana na 30 marca (dla mnie trochę nierealny termin , ale co tam trzeb się łudzić, że tak będzie). A co do wymagań jakie podałem to nie wiem co w nich takiego dziwnego :] Coś Ci się chyba pokiełbasiło :) nic nie ma tam takiego napisane jak S.M 4.0 - S.M 3.0 + Dx10 tylko Graphics: Nvidia 7800GTX/ATI X1800XT (SM 3.0) or DX10 equivalent.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

nic nie ma tam takiego napisane jak S.M 4.0 - S.M 3.0 + Dx10 tylko Graphics: Nvidia 7800GTX/ATI X1800XT (SM 3.0) or DX10 equivalent.

No i w tym sęk że nie ma nic napisanego B-) a być chyba powinno jako że karty zgodne z Dx10 mają już S.M 4 i to między innymi charakteryzuje nową generacje gpu, więc po kiego grzybą pisza S.M 3.0? Jak Dx10 to pasowałoby razem z S.M 4.

Gdyby to nie był błąd, oznacza to z koleji że wymagana byłaby karta która obsługuje Dx10 ale nie koniecznie S.M 4 :wink:

Z resztą nvm - to nie temat o Crisis

Edytowane przez -Caleb-

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

smiesza mnie teksty z dxp 10.

mam pytanie ile czasu trwalo nim radek 9700 mial sie czym sycic ?

przez 1.5 roku byly tytuly opracowywane przez ostatnie 2 lata przed ukazaniem sie radka

i dxp 9 oraz px 2.0. Wynik byl taki ze goscie z ti 4 mieli na ekranie dokladnie to samo.

czy myslicie ze opracowanie gry trwa 6 miesiecy ? a to maks wstecz kiedy ludzie mogli ogladac dzialajace

karty na dxp 10.

trzeba troche pomyslec realnie a nie lapac reklamy.

tak jak posiadacze radkow nie mieli wiekszego pozytku poza aa i anizo tak

posiadacze g80 nie beda mieli tytulow pod ta karte.

przez rok wszystko najnowsze co wyjdzie na 7900 i 1900 bedzie wygladalo dokladnie tak samo.

a nie wiem czy 7900 gto sli z racji dopracowanych sterow nie bedzie wydajniejsze od g80 na codzien

pzdr

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

http://img321.imageshack.us/my.php?image=462226658pj4.jpg

 

http://img162.imageshack.us/my.php?image=462226656sw4.jpg

 

Niezłe chłodzonko :wink:

 

EDIT: Jeszcze info dotyczące cen ASUSa----> EN8800GTX/HTDP/768M , is: USD $540 (FOB).

EN8800GTS/HTDP/640M , is: USD $410 (FOB).

 

(wie ktoś co oznacza te ''FOB'' prz cenie??)

Edytowane przez Domell

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

tylko taki drobny szczegolik - nowy sytem operacyjny, a za nim M$ z duza iloscia $, aby go promowac.

a co ma to do ilosci tytulow przez najblizszy rok ?

zawsze tyle trwalo ukazanie sie tytulow na nowe technologie.

g80 i r600 beda smokami tak jak byl przelomowy 9700,

ale zeby naprawde cieszyc sie grami nowej generacji i tak trzeba bylo

czekac do nastepnej generacji kart. Przyklady tytulow naprawde kozystajacych

z shaderow i poza hdr nie wygladajacymi gorzej na kartach z ps2.0 to

oblivion

sc chaos

nowy tomb

itp.

fear

sulaco zagrasz w nie naprawde komfortowo na 9800 czy 5900 fx ?

duzo wody uplynie za nim dxp 10 stanie sie standartem.

A to ze ms ma iles tam kasy to oki. ale to potrwa.

a g80 i r600 nie beda nic wiecej jak najszybszymi kartami z pojedynczym gpu.

Tak naprawde sa juz tytuly pod zwykly dx9 ktore dadza im wycisk.

ale jezeli ktos sadzi ze w przez rok od chwili premiery bedzie mial cos

co nie jest do wygenerowania na obecnych kartach a tylko na wysnionym g80

poza demami to jest naiwny.

pzdr

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

http://img321.imageshack.us/my.php?image=462226658pj4.jpg

 

http://img162.imageshack.us/my.php?image=462226656sw4.jpg

 

Niezłe chłodzonko :wink:

 

EDIT: Jeszcze info dotyczące cen ASUSa----> EN8800GTX/HTDP/768M , is: USD $540 (FOB).

EN8800GTS/HTDP/640M , is: USD $410 (FOB).

 

(wie ktoś co oznacza te ''FOB'' prz cenie??)

Znalazłem cos takiego:http://en.wikipedia.org/wiki/Free_On_Board ale to chyba nie to ;). Za to z tego wynika ze gts bedzie ponizej 1500zł (gdzies jeszcze widziałem cene 416$ ale nie za asusa tylko ogolną). Edytowane przez yuucOm

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

a co ma to do ilosci tytulow przez najblizszy rok ?

no mysle, ze sporo. jak zachecic do kupowania nowego systemu jak nie przez nowy hardware i soft na niego

 

Nvidia GeForce 8800 GTX Details Unveileds.

Web-Site Publishes Asus EN8800GTX Details

osobiscie stawiam na ta wersje:

"G80 has 32 pixel and 16 vertex and geometry shader processors"

Edytowane przez Sulaco

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

jak to sie mowi - za piekne, aby bylo prawdziwe. jestem realista ;)

Hmmmm.... A więc w takim razie co by zajmowało aż niemal 700 mln tranzystorów (bo tyle wg info które można znaleźć na sieci G80 ma mieć....)?? Pozatym po wynikach (narazie w 3dmarku, ale pewne źródła donoszą żew grach ma być jeszcze lepiej) widac że jest on wydajniejszy od GF7900GTX o conajmniej 2x tak że poprostu zastanawia mnie czy byłoby to możliwe przy zaledwie 8 jednostach PS i 8 VS więcej....

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Hmmmm.... A więc w takim razie co by zajmowało aż niemal 700 mln tranzystorów (bo tyle wg info które można znaleźć na sieci G80 ma mieć....)??

to moze byc "pelne" 32potoki - ROP,TMU,PS + tranzystory na geometry shader + tranzystory na nowe "bajerki" + rozbudowany kontroler pamieci + moze jakis cache. wydajnosc oprocz wiekszej ilosci potokow, mogli tez podniesc przez zwiekszenie taktowania/optymalizacje jednostek PS/VS

nie wiedze problemu, aby z 300 zrobic 700, jezeli te 700 to faktycznie prawda.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

to moze byc "pelne" 32potoki - ROP,TMU,PS + tranzystory na geometry shader + tranzystory na nowe "bajerki" + rozbudowany kontroler pamieci + moze jakis cache. wydajnosc oprocz wiekszej ilosci potokow, mogli tez podniesc przez zwiekszenie taktowania/optymalizacje jednostek PS/VS

nie wiedze problemu, aby z 300 zrobic 700, jezeli te 700 to faktycznie prawda.

A może G80 ma 32 potoki pixeli i np. 4 jednostki ALU na potok (czy jak to tam jest-bo niezbyt się znam na tym :oops: )?? Co na wzór G70/71 które mają 24x2?? Stąd to info odnośnie 128 shaderów??

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A może G80 ma 32 potoki pixeli i np. 4 jednostki ALU na potok (czy jak to tam jest-bo niezbyt się znam na tym :oops: )?? Co na wzór G70/71 które mają 24x2?? Stąd to info odnośnie 128 shaderów??

tez tak moze byc i jest to bardzo prawdopodobne. imho bardziej poszli w dodwanie do juz istniejacego projektu, niz tworzyli cos od nowa, tak wiec takie np. unified shader to b.s.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jesli te ponad 7000 pkt w 3D Marku 06 w rozdzielczości 1680x1050 z AAx8 i AFx16 to prawda (ponoć jest to wynik potwierdzony....) to będzie baaaardzo ciekawie :D

Pozdro

Fotki gg ;).

Btw skad info o 7000 pkt w 3dmark06 w takich detalach ? ;d. Link mile widziany.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Fotki gg ;).

Btw skad info o 7000 pkt w 3dmark06 w takich detalach ? ;d. Link mile widziany.

http://www.beyond3d.com/forum/showthread.p...576&page=59

 

Posty nr 1454 i 1460 :) To info pochodzi z tego samego źrodla co poprzednie wyniki wiec jest bardzo prawdopodobne ze jest prawdziwe :wink: (mam nadzeje) z racji tego ze info dotyczace wczesniejszych wynikow okazaly sie prawdziwe B-)

 

Pozdro.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Może szykuje się ulepszone SLI . Narazie nvidia nie może uporać się z sterami. Podobno dużo ilość chipów jest uszkodzonych , to chłodzenie na G80 na moje oko jest mniej wydajne od tego na 7900gtx. Więc szukuje się wichura lub rzeczywisty pobór mocy nie jest tak ogromny.

 

Ciekawe tylko 8800GTX ma tylko dwa konektory SLI , podejrzewam raczej to służy do połączenia trzeciej karty do liczenia fizyki.

Edytowane przez sideband

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

za stary jestem zeby sie jarac takimi nowinkami ;) choc przyznam ze czasami cisnie mnie zeby sobie kupic c2d, jednak w koncu zdrowy rozsadek zaczal zwyciezac i od okolo 2 lat kupuje tylko to co sie oplaca ze wzgledu cena/jakosc a sprzet wymieniam tylko wtedy gdy stary juz przestaje dawac rade moim wymaganiom, lub gdy da sie go rozbudowac tanim kosztem.

Polecam wszystkim ta technike, bo i pieniazkow wiecej na piwo, i mniej wyrzutow sumienia ;) no chyba ze ktos ma bogata mamusie/tatusia :] (no offence).

 

 

Poprzednia moja grafa byl gf 4200 ti i dawal rade bardzo dlugo, a i pewnie nadal by dawal rade ale chcialem zobaczyc co daje ten dx9.0c w grach :P - okazalo sie ze w sumie niewiele ;] - beznadziejne gry pomimo lepszej karty nadal sa beznadziejne, a dobre wcale duzo lepsze sie nie staly...

 

Do czego zmierzam ... Jak dzis pamietam podniete wszystkich na temat dooma 3, planowanie pcetow pod gre, kupowanie mega graf, zeby sie okazalo ze to na co ludzie czekali tyle czasu jest po prostu slabe, a na dodatek calkiem sprawnie dziala na "zwyklych" grafach i "zwyklych" pecetach...

Gdyby crysis byl moja religia moze i bym kupil sobie mega grafe ;) ale ze to tylko zwykla gra, na dodatek jedna i nie wiadomo czy "miodna"top sorry ale wole poczekac i zobaczyc czy wogole warto ;), a nic sie nie stanie jak zagram w nia pol roku pozniej niz wszyscy, bo przeciez jest na tym swiecie tyle innych ciekawych gier ktore juz dzisiaj beda mi dzialaly bez zajakniecia, a znajac zycie pewnie polowa z nich jes lepsza niz crysis...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

Ładowanie


×
×
  • Dodaj nową pozycję...