Skocz do zawartości
cavarr

Geforce 8800GT 256/512MB

Rekomendowane odpowiedzi

Hmm... widocznie nie czytałeś że mniejszy rdzeń to mniejsza powierzchnia odprowadzania ciepła a zatem chłodzenie musi być wydajniejsze niż te obecne. Dlatego pierwsze egzemplarze padały pod tymi jednoslotówkami, no więc musieli dać coś lepszego. Nie wiem co bo zdjęcia wszystkie pokazują to samo.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Hmm... widocznie nie czytałeś że mniejszy rdzeń to mniejsza powierzchnia odprowadzania ciepła a zatem chłodzenie musi być wydajniejsze niż te obecne.

Może to kwesia nie tyle wydajniejszego chłodzenia co samego rozprowadzenia tego ciepła, bo w takim razie sens przeskoczenia z 90nm do 65nm w kontekscie spadku temp bylby bez sensu, a przeciez dążymy do miniaturyzacji, zatem mniejszy proces produkcji powinien determinowac mniejsze układy chłodzenia. Może ostatecznie zastosują jakiś ciekawy system z HP który rozłozy produkowane ciepło równomiernie na żeberka alu, bo zastowowanie tego kolosa z GTS jako mi sie nie usmiecha :| Edytowane przez Caleb

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pobór prądu spadł, z teoretycznego 140-150W do teoretycznego 110W. :)

 

Powierzchnia oddawania ciepła jest teraz bardziej zbliżona do G71, a więc należy chyba upartywać rozwiązań z siódmej generacji. :> Tam przecież i powierzchnia i pobór prądu były zbliżone do G92.

Edytowane przez Pussik

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Niech wrzuca testy w Lost planet, WIC, Crysis, a nie starociach gdzie komp wywala setki klatek, sens zmiany mojej karty przy 90 fps na 110fps jest znikomy, paradoksalnie róznica powinna osiagnac 20%, 30fps na 35fps...gra warta swieczki:>?

Pi razy drzwi najważniejsza jest teraz cena, bo ludzie poopychają swoje gts, gtx (ultry?:P) a za nowe dziecko NV zaplaca 1100z (tyle obstawiam) bo gadanie ze karta ma cenowo wypelnic luke miedzy 8600 a 8800... to glupota;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

GeForce 8800GT, test dekodowania video

Serwis Expreview, który nieustannie towarzyszy premierze karty GeForce 8800GT, z układem G92. Tym razem przedstawił testy dekodowania 4 minutowego nagrania 1080dpi 40Mbps bitrate.

Do testu użyto Celerona Conroe-L 2GHz i sterowników 167.26. Uzyskany wynik to zaledwie 1.9% zużycie tego niezbyt szybkiego procesora, przy wykorzystaniu kodeka H.264 i średnim bitrate wynoszącym 36.64Mbps.

Co ciekawe, na karcie 8600GT wynik był równie niski, a więc to drivery 167.26 tak znaczaco poprawiają efektywność dekodowania materiału video.

 

Pod tym adresem możecie zobaczyć screen z wyników testu.

Edytowane przez Pussik

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

GeForce 8800GT, test dekodowania video

Serwis Expreview, który nieustannie towarzyszy premierze karty GeForce 8800GT, z układem G92. Tym razem przedstawił testy dekodowania 4 minutowego nagrania 1080dpi 40Mbps bitrate.

Do testu użyto Celerona Conroe-L 2GHz i sterowników 167.26. Uzyskany wynik to zaledwie 1.9% zużycie tego niezbyt szybkiego procesora, przy wykorzystaniu kodeka H.264 i średnim bitrate wynoszącym 36.64Mbps.

Co ciekawe, na karcie 8600GT wynik był równie niski, a więc to drivery 167.26 tak znaczaco poprawiają efektywność dekodowania materiału video.

 

Pod tym adresem możecie zobaczyć screen z wyników testu.

Szkoda, ze testowali tylko kodek H.264, który działał i na 8600-8300. Zonk na kartach NVIDII był w VC-1 i jakość obrazu jest dużo gorsza od tej prezentowanej przez ATI UVD. Niewiele sie zmieni, większość osób wybierająca kodowanie i obsługę multimediów wybierze ATI HD, bo jest bezkonkurencyjne. Edytowane przez morgi

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

jak na moj gust apowiada sie interesujaco ..

 

a sytuacja przypomina troche taktyke intela z prockami z seri e2xxx .. procki z najnizszej polki w bardzo dobrej cenie architektura conroe a jedyna roznica to mniejsza ilosc cache .. i co ciekawe na podobnych taktach w grach mniejsza ilosc cache robi marginalna roznice w osiaganych wynikach [3-5% mniej w stosunku do e6xxx] a jak sie to ma do ceny kazdy chyba wie ;]

 

jasne jest ze najwiecej kasy przynosi wlasnie low i mid end ;]

 

NVIDIA pewnie dopiero w wakacje pokaże mocną odpowiedź na HD ATi.

bo poki co nie ma za bardzo na co odpowiadac - 8800 ciagle rzadzi pod wzgledem wydajnosci wiec moga zrobic sobie wolne - stad odswierzanie 8smej serii ;]

Edytowane przez ChomiK

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wiesz co Ciupek? ;]

 

Jakbym składała kompa z głową na karku do zapotrzebowań mojego ego, mając w ch... kasy to bym kupiła:

 

2x TV 40" HD (dla mnie i córki)

XboXa 360

kompa do pracy z CoreQuadem Extreme, 8GB ramu pod Vistą 64bit

3 monitorami LCD 30"

1 monitorem dotykowanym Wacoma jako tablet

a w kompie 2xGF8800Ultra na zmianę z HD2600GT do filmów HD

 

Generlanie to przydałyby się dwa kompy, drugi robiłby za farmę.

 

No to pojechałam :>

 

 

------------------------------------------------------------------------------------------------------------------------------------

 

Screen 8800GT z GPU-Z

Expreview kolejny raz uracza nam smakołykiem o nazwie G92, prezentując screen z programiku GPU-Z.

Sama aplikacja jest dość młoda i nie wszystko odczytuje prawidłowo, jednak wystarczy spojrzeć na odpowiednik w postaci CPU-Z, by przewidywać jej umiarkowany sukces

Na załączonym screenie widać iż najnowszy GeForce 8800GT charakteryzuje się:

Biosem: 62.92.0 F.00.04

Rewizją: A2

Taktowaniami: 600/1500/900 (gpu/mem/shaders)<br>

Złączem: PCI-E 2.0

Sterownikami: 167.26 pod Viste

Ilością pamięci: 512MB

Jednostkami: 7 pixel shaderów, 7 ROPów

 

Dołączona grafika

 

Redaktorzy twierdzą iż aktualne taktowanie jest błędnie odczytywane i 50 procentowy overclocking nie nastąpił.

Edytowane przez Pussik

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Teraz zauważyłem, że tamte testy były robione w PCiex a 8800GT ma obsługiwać też Pciex 2.0 czyli można się spodziewać jeszcze większej wydajności?

 

Czyli to nie jest OC z 1500 na 2250 a tylko błąd pomiaru? A te ropy i shadery? Czemu tylko 7? Chyba też błąd.

Direct Xa też nie wykrywa ale chyba nie jest to spowodowane obsługą przez kartę DX10.1.

Tu dla porównania 8800Ultra GPU-Z ( tak dla porównania gdyby pojawiły się prawidłowe odczyty z GPU-Z)

http://img84.imageshack.us/img84/5807/gpuzmi3.jpg

Edytowane przez l33tno0b1n

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dwa news'y z http://www.fudzilla.com/

 

8800 GT cannot do triple SLI

We've learned a quite disturbing fact. The soon to be launched, Geforce 8800GT won’t feature support for the upcoming Triple SLI.

 

This will be a feature reserved only for the high-end cards but we have confirmed a few details for the this and will follow up on this one as soon as we can. It looks like Triple SLI will be a high-end card feature only and it won’t work on slower cards.

 

You will need a new 780i chipset to get Triple SLI operational and this chipset comes in November.

8800GT to be available at the launch

But in limited numbers

 

 

Geforce 8800GT will launch on the 29th and Nvidia will prove that it can ship the cards back to many etailers and retailers at the launch date. Do not be surprised if the 8800GT gets sold out soon after the launch as this is going to be a very sexy product and many will want to buy one.

 

Some people might hold their breath to see the Radeon HD 2950XT in action as it will cost roughly the same and it will launch about two weeks later, but Nvidia is walking on very solid ground with 8800 GT. This single slot card looks attractive and it should be quite fast as well.

 

We can confirm that the partners are making their own cards and that, at the same time, Nvidia is making reference cards for the ones who don't like to mess with Nvidia reference design. The boxes are being printed and the cards will be available at launch, on the 29th.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Żadna nowość z tym brakiem supportu dla Tri-SLi.

8800GT, jak było widac na fotce pcb, posiada tylko jedno złącze dla mostka, gdzie GTX i Ultra posiadają dwa.

 

Ciekawe jednak czemu, NVIDIA nie planuje wybudować PCB na przykładzie GTX`a i Ultry. :>

Może producenci sie tego podejmą? (już to widzę) ;]

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Teraz zauważyłem, że tamte testy były robione w PCiex a 8800GT ma obsługiwać też Pciex 2.0 czyli można się spodziewać jeszcze większej wydajności?

Jeżeli "tamte" testy nie były ściemą to wydajność nie powinna być wyższa, w granicach błędu pomiarowego.

Czyli to nie jest OC z 1500 na 2250 a tylko błąd pomiaru? A te ropy i shadery? Czemu tylko 7? Chyba też błąd.

Direct Xa też nie wykrywa ale chyba nie jest to spowodowane obsługą przez kartę DX10.1.

Tu dla porównania 8800Ultra GPU-Z ( tak dla porównania gdyby pojawiły się prawidłowe odczyty z GPU-Z)

http://img84.imageshack.us/img84/5807/gpuzmi3.jpg

GPU-Z jest programem w fazie pre-alpha ;) na co wskazuje ver. 0.0.7, więc nie ma co się sugerować tym programem, gdyż wiele jest jeszcze do poprawienia :-P

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

jasne jest ze najwiecej kasy przynosi wlasnie low i mid end ;]

bo poki co nie ma za bardzo na co odpowiadac - 8800 ciagle rzadzi pod wzgledem wydajnosci wiec moga zrobic sobie wolne - stad odswierzanie 8smej serii ;]

Na dobra sprawę to jest RV670 i z opisów i dochodzących głosów będzie znacznie wydajniejsza od HD2900. Bloki RBE zupełnie przeprojektowano w celu poprawy kompresji Z, color, color+Z, pozostaje bez zmian kompresja tekstur głębi i szablonów, wydajność MSAA poprawiona; zostawiono wewnętrzny kontroler pierścieniowy 1kbit; wstrzymano produkcję R600, stąd niska dostępność tych kart. Za miesiąc może być wreszcie spełnione oczekiwanie na wielki comeback wydajnościowy ATI. Edytowane przez morgi

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

a kiedy premiera nowego dziecka ati?

Wejdź do działu o kartach ATI to zobaczysz.

 

"life sucks if you recently bought a GTX."

http://www.theinquirer.net/gb/inquirer/new...92-scores-outed

 

UWAGA tam jest oczywiście błąd zamiast 3dmark05 powinno być 06

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Hmm... wyższe wyniki niż GTX i ULTRA, czyli NVIDIA strzela sobie w łep?.

Strzeliła by sobie w łeb gdyby wydała kartę gorszą od RV670. Nowy Radek ma obsługiwać DX10.1 jeżeli miałby być jeszcze wydajniejszy od 8800GT i zbliżony w wydajności do GTXa. To kto kupiłby 2 razy droższą Ultre i GTXa? Po wyjściu nie wiele mniej wydajniejszego GT za to 2 razy tańszego i tak bardziej się opłaci kupić 2X8800GT niż jedną Ultrę więc czas Ultry dobiega końca. Najlepiej by było gdyby 8800GT byłby wydajniejszy od 2950 nawet kosztem GTXa czy Ultry. Ciekawe jeszcze co pokaże nowy 8800GTS NV siedzi cicho na jego temat a premiera ponoć 29/10 czyli razem z 8800GT.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

* G92-270-A2 revision (65nm, Week 37 2007)

* 37.5mm x 37.5mm 1148-pin FCBGA package

* Core clock : 600MHz / Shader clock : 1500MHz

* VGPU = 1.05±10.5mV

* 10-layers PCB revision G92P393

* 8 chips of 16M x 32 Qimonda HYB18H512321 BF-10 @ 2V

* 256-bit 512MB GDDR3 @ 900MHz (Effective 1GHz)

* Coolermaster TM69 single slot cooler

* 3 heat-pipes, 1000-3200RPM, 34dB

* 110W TDP (Requires 6-pin PCIe connector)

* NVIO/HDCP

 

GeForce 8800 GT GPU

Dołączona grafika

 

Qimonda HYB18H512321 BF-10 GDDR3

Dołączona grafika

 

GPU GDDR3

Dołączona grafika

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ooo dobrze że coś wychodzi ... bo szukam grafy z granicy 800-900 zł a nic ciekawego nie ma.

Moj Palicik sie juz wysluzyl i spisal naprawde swietnie :).

 

I tak naprawde nia mialem go na co zmienic.... czekalem az sie doczekalem.

Bo przeskok cenowy byl naprawde za duzy.

 

juz tylko 2 tygodnie zostaly :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No zapowiada się ciekawie.

BTW Będe zamawiał ze stanów w połowie listopada wersje z 512/256ram więc jakby co to piszta ludzie to wyjdzie mniej za przesyłke i za karte(cena oczywiście taka jaka będzie w dolarach USD, a przesyłka ~23$) :)

Edytowane przez Blazejj

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ooo dobrze że coś wychodzi ... bo szukam grafy z granicy 800-900 zł a nic ciekawego nie ma.

Moj Palicik sie juz wysluzyl i spisal naprawde swietnie :).

 

I tak naprawde nia mialem go na co zmienic.... czekalem az sie doczekalem.

Bo przeskok cenowy byl naprawde za duzy.

 

juz tylko 2 tygodnie zostaly :)

Tylko 2 tygodnie abys zobaczyl cene o 400-500zl wieksza niz zakladasz;]

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tylko 2 tygodnie abys zobaczyl cene o 400-500zl wieksza niz zakladasz;]

Nie wiem jak Ty przeliczasz 250$, że Ci 1400zł wychodzi :lol: Tyle to może kosztować nowy GTS 640MB :wink: Którego premiera ma być 19 Listopada

http://64.233.179.104/translate_c?hl=en&am...icial%26hs%3DIX

Edytowane przez l33tno0b1n

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

mało prawdopodobna ta cena .

 

ciekawe czym nas nvidia zaskoczy ;)

Nie rozumiem co w tym dziwnego.

 

65nm to tańszy proces

ATI wydaje poważnego konkurenta w postaci Rv670

8800 ma już około roku czas by ceny spadły

8800 to nowy med-end od NV a pamiętacie jak było gdy 7600 pokonywał 6800 ?

Ceny w dolarach są już podane

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

250 dolarów to sugerowana cena przez NVIDIĘ dla klienta końcowego w USA. Jednak dopieor gdy produkt będzie ogólnodostępny.

 

Jażeli jakiś sklep sprowadiz karty tydzień rpzed wszystkimi to moze robic co chce i na ten tydzień nałożyć marżę +20%. :] Kto im zabroni?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ceny w dolarach, to ceny w dolarach. U nas w UE walną to samo, ale w Euro i już bedzie po ~1200zł Jednak wreszczie cos sie ruszyło i bedziemy mieć coś ze środka stawki. Trzymam kciuki za ATI, jako stary fan, ale przede wszystki, żeby Nvidia dała dobre ceny na nowy/stary sprzęt. Konkurencja zawsze robi dobrą cenę B-)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

Ładowanie


×
×
  • Dodaj nową pozycję...