Skocz do zawartości
Caleb

Geforce 8800 GTX / GTS

Rekomendowane odpowiedzi

Mam 8800GTS BFG

i co z tego ??? :lol2:

w twoim poście nie widze żadnego sensu

Czekam na zasilke.

Na taganie 480 albo chieftecu 450 nie mam co krecic.

We wtorek bede mial nowego szefa 620W to sie pobawie.

jutro moge puscic wsio na def

podaj modele tych zasiłek, bo coś mi się wydaje, że te zasiłki spokojnie pociągną tego GTS'a, który żre niewiele więcej niż twój X1800GTO po OC

 

Dołączona grafika

pozdro

Edytowane przez cavarr

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

8800 wymiata :)

Oglądałem filmiki które były na Driver Heaven ( http://www.driverheaven.net/reviews/8800nv...viewx120/IQ.php ), Obliviona i Dark Messiaha, po czym ustawiłem sobie przynajmniej w jakiejś części podobne ustawienia i było tragicznie w tych miejscach.... (np. Messiahu po podejściu do tego posągu czy tego światła obok spadało poniżej 10fps, tam dali 16AA a ja dałem na 4 ;))

Szkoda, że takie krótkie... :(

 

Pozostaje mi czekać na 8800GS ;)

Edytowane przez Aran

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Powiem tak. Grafika nie grzeje sie zbytnio. na stockowym chlodzeniu po puszczeniu 3Dmarka karta ma 82stopnie.

Samo chlodzenie nie jest zbyt glosne.

 

Carbon po ustawieniu wszystkich detali na maxa, anizo i aa x4 smiga plynnie i wyglada slicznie

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

z tego co gdzies przeczytalem to nowy 3dsmark bedzie w momencie wypuszczenia visty i to tylko pod nia - ale moge sie mylic

nie mylisz sie -> link

Elite Bastards: Will the next 3DMark still be made for Windows XP?

Futuremark: Nope, the next 3DMark is a D3D10/Vista only benchmark.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Powiem tak. Grafika nie grzeje sie zbytnio. na stockowym chlodzeniu po puszczeniu 3Dmarka karta ma 82stopnie.

Samo chlodzenie nie jest zbyt glosne.

82 stopni to mało? to jest GTS , przy tej temperaturze oc będzie kiepskie. W lecie karta będzie się wręcz topić.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Taaa a układ I/O jest bez chłodzenia, poza tym żadnych radiatorów na mosfety i kości ram -> to nie przejdzie...

 

Wersja finalna musi być bardziej oradiatorowana

Hmm to ze nie ma chłodzenia na ramie to może być plus ;], ale tylko wtedy jak sam kupujesz sobie radiatorki np Revolteka. Imo im wiecej wersji tym lepiej. Ofc sam bym wział wersje z zalmanem plus full radiatory na starcie ;).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

konkurencja konkurencja ja bym na to patrzyl tak ze jeden g80 ciagnie prawie tyle samo co 2 g70

a r600 ma byc w 0.65

nvdia zawsze w tyle za murzynami

no wlasnie i tu mamy problem ze g80 jest w 0.09 a nvidia jest w tyle za murzynami

 

gdyby to bylo w 0.65 niemialbys najmniejszych problemow a tak no coz blue screny wywalanie z gry przy tylu pradaciagach w kompie moze byc codziennoscia ale warto sprobowac przed zmiana zasilki

 

heh 2 lata

 

ja sie obawiam ze jak przyjdzie to gier dx10 to bedzie powtorka z historii czyli fx a ten 8800 bedzie w dx10 takim odpowiednikiem 5200fx w dx9

 

zreszta crysis ma byc dopiero w kwietniu 2007 wiec po co sie tak spieszyc

poczekajmy na testy w dx10 w wymagajacych grach a nie w starociach pod dx9

 

ati nadchodzi wielkimi krokami

co z tego, że nadchodzi jak nadejśc nie może :lol2:

co do prądożerności kart z serii G80 to zgadzam się tylko w przypdaky IDLE bo LOAD mnie satysfakcjonuje pozytywnie w 100%

 

Dołączona grafika

 

Dołączona grafika

 

crysis pokaże dx10 dopiero po patchu, który zapewne wyjdzie gdzieś po roku od swojej premiery

ati jest w kazdym razie krok przed murzynami

gdzie krok przed ?? jest za i to o 3 miesiące :lol2:

 

ATI_R600

 

# 64 ujednolicone jednostki shader,

# technologia produkcji to prawdopodobnie 65 nm,

# prawdopodobnie będzie współpracował z pamięcią GDDR4,

# będzie wspierał standard Microsoft DirectX 10.0,

# układ będzie zajmował się obliczeniami oddziaływań fizycznych.

http://www.megagames.com/news/html/hardwar...srevealed.shtml

nawet jesli ati bedzie zarla wiecej pradu a bedzie np 50% wydajniejsza to performance/wat i tak bedzie miala lepszy

g80 w 0.09 i nawet jesli ati r600 w 0.80 to beda to tymczasowe rozwiazania na zapchajdziure

patrzac na ekonomie uzysk ilosc tranztstorow nie ma innego wyjscia jak zchodzenie z wymiarem technologicznym

 

kwestia poboru pradu staje sie coraz bardziej istotnym elementem rozpatrywanym przy zakupie sprzetu

 

intel to juz zrozumial (ostatnio) amd zrozumialo to juz dawno

 

czas na ati i nvidia

 

w innym wypadku kolejna generacja kart bedzie wymagala osobnego 500W zasilacza dla samej karty

kiedy ati budowalo xenosa do xbox360 to nvidia dopiero zainteresowala sie tematem

 

no ale jesli myslisz ze jajko bedzie madrzejsze od kury :lol2: :lol2:

:mur: :mur: :mur:

 

ati z amd zmiota nvidie do rynku lowend z tym 8800gtx

lol 50% szybsza ATI od NV

pokaż mi kiedy w historii GPU była taka sytuacja, że któryś z producentów chipów graficznych miał taką przewagę ??

odpowiem Ci NIGDY, zawsze były to marginalne różnice (wyjątek R300)

 

co do zapchajdziury to się z tobą zgadzam, ale nv wybrała lepsze zło produkując G80 w 0.09 :-|, gdyż pamiętacie państwo projekt o nazwie NV30 :lol:

nv po prostu nie chciała powtórzyć błędu, który teraz dotyka R600

 

widziałeś testy R600 :lol: , że spychasz G80 do lowendu ??

 

pozdrwaiam

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z tego co widze to 1-dna osoba narazie na forum ma 8800gts-a. Chyba ze ktos sie nie ujawnia.

 

Przed ofocjalnymi testami tez myslalem ze GTS jest do bani itp. Jednak oficjalne testy wykazaly ze po podkreceniu jest ok. Ze bije na glowe x1950 i GX2 ( dobrze ze sprzedalem :) ).

 

A co do ATI to nie ma tej karty i nawet zadnych przeciekow co do wydajnosci.

 

Jezeli by postepowac tak jak tu w temacie sugeruje duzo osob to chyba bym grafiki nigdy nie kupil. Tzn. za kilka miesiecy wyjdzie lepsza, po co wydawac kase, ATI bedzie o wiele lepsza itp.

 

Bedac uzytkowniekiem forum widze dziwne sytuacje. Gosc majacy celerona 366 wypowiada sei ze np. X2 to zupełne badziewie ze liczy sie tylko najnowszy intel quad, ze g80 to badziewie i ze po co kupowac taka dziadoska grafike jak za kilka miesiecy wyjdzie super karta ATI i bedzie 50% szybsza.

 

To takie luzne moje przemyslenia.

Edytowane przez Lysyn

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Panowie: Porównanie jakości obrazu GF 8800 vs. GF 7900 - powiedzcie czy cos źle robię czy faktycznie na GF 8800 jest obraz takiej samej jakości.

Ja paczyłem na to Porównanie przed chwila i widze lekko korzyśc za rzecz 8800 w niektórych zdjeciach widać lepsza jakosc na rzecz 8800 a na innych nie widac prawie różnicy

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

Ładowanie


×
×
  • Dodaj nową pozycję...