Keniger Opublikowano 14 Października 2007 Zgłoś Opublikowano 14 Października 2007 Hmm... widocznie nie czytałeś że mniejszy rdzeń to mniejsza powierzchnia odprowadzania ciepła a zatem chłodzenie musi być wydajniejsze niż te obecne. Dlatego pierwsze egzemplarze padały pod tymi jednoslotówkami, no więc musieli dać coś lepszego. Nie wiem co bo zdjęcia wszystkie pokazują to samo. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Caleb Opublikowano 14 Października 2007 Zgłoś Opublikowano 14 Października 2007 (edytowane) Hmm... widocznie nie czytałeś że mniejszy rdzeń to mniejsza powierzchnia odprowadzania ciepła a zatem chłodzenie musi być wydajniejsze niż te obecne.Może to kwesia nie tyle wydajniejszego chłodzenia co samego rozprowadzenia tego ciepła, bo w takim razie sens przeskoczenia z 90nm do 65nm w kontekscie spadku temp bylby bez sensu, a przeciez dążymy do miniaturyzacji, zatem mniejszy proces produkcji powinien determinowac mniejsze układy chłodzenia. Może ostatecznie zastosują jakiś ciekawy system z HP który rozłozy produkowane ciepło równomiernie na żeberka alu, bo zastowowanie tego kolosa z GTS jako mi sie nie usmiecha :| Edytowane 14 Października 2007 przez Caleb Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość Pussik Opublikowano 14 Października 2007 Zgłoś Opublikowano 14 Października 2007 (edytowane) Pobór prądu spadł, z teoretycznego 140-150W do teoretycznego 110W. :) Powierzchnia oddawania ciepła jest teraz bardziej zbliżona do G71, a więc należy chyba upartywać rozwiązań z siódmej generacji. :> Tam przecież i powierzchnia i pobór prądu były zbliżone do G92. Edytowane 14 Października 2007 przez Pussik Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
HeatheN Opublikowano 14 Października 2007 Zgłoś Opublikowano 14 Października 2007 Niech wrzuca testy w Lost planet, WIC, Crysis, a nie starociach gdzie komp wywala setki klatek, sens zmiany mojej karty przy 90 fps na 110fps jest znikomy, paradoksalnie róznica powinna osiagnac 20%, 30fps na 35fps...gra warta swieczki:>? Pi razy drzwi najważniejsza jest teraz cena, bo ludzie poopychają swoje gts, gtx (ultry?:P) a za nowe dziecko NV zaplaca 1100z (tyle obstawiam) bo gadanie ze karta ma cenowo wypelnic luke miedzy 8600 a 8800... to glupota;) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość Pussik Opublikowano 14 Października 2007 Zgłoś Opublikowano 14 Października 2007 (edytowane) GeForce 8800GT, test dekodowania video Serwis Expreview, który nieustannie towarzyszy premierze karty GeForce 8800GT, z układem G92. Tym razem przedstawił testy dekodowania 4 minutowego nagrania 1080dpi 40Mbps bitrate. Do testu użyto Celerona Conroe-L 2GHz i sterowników 167.26. Uzyskany wynik to zaledwie 1.9% zużycie tego niezbyt szybkiego procesora, przy wykorzystaniu kodeka H.264 i średnim bitrate wynoszącym 36.64Mbps. Co ciekawe, na karcie 8600GT wynik był równie niski, a więc to drivery 167.26 tak znaczaco poprawiają efektywność dekodowania materiału video. Pod tym adresem możecie zobaczyć screen z wyników testu. Edytowane 14 Października 2007 przez Pussik Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
morgi Opublikowano 14 Października 2007 Zgłoś Opublikowano 14 Października 2007 (edytowane) GeForce 8800GT, test dekodowania video Serwis Expreview, który nieustannie towarzyszy premierze karty GeForce 8800GT, z układem G92. Tym razem przedstawił testy dekodowania 4 minutowego nagrania 1080dpi 40Mbps bitrate. Do testu użyto Celerona Conroe-L 2GHz i sterowników 167.26. Uzyskany wynik to zaledwie 1.9% zużycie tego niezbyt szybkiego procesora, przy wykorzystaniu kodeka H.264 i średnim bitrate wynoszącym 36.64Mbps. Co ciekawe, na karcie 8600GT wynik był równie niski, a więc to drivery 167.26 tak znaczaco poprawiają efektywność dekodowania materiału video. Pod tym adresem możecie zobaczyć screen z wyników testu. Szkoda, ze testowali tylko kodek H.264, który działał i na 8600-8300. Zonk na kartach NVIDII był w VC-1 i jakość obrazu jest dużo gorsza od tej prezentowanej przez ATI UVD. Niewiele sie zmieni, większość osób wybierająca kodowanie i obsługę multimediów wybierze ATI HD, bo jest bezkonkurencyjne. Edytowane 14 Października 2007 przez morgi Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość Pussik Opublikowano 14 Października 2007 Zgłoś Opublikowano 14 Października 2007 Pod tym względem jest i to AMD przytrzymuje przy życiu. :) NVIDIA pewnie dopiero w wakacje pokaże mocną odpowiedź na HD ATi. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
ChomiK Opublikowano 14 Października 2007 Zgłoś Opublikowano 14 Października 2007 (edytowane) jak na moj gust apowiada sie interesujaco .. a sytuacja przypomina troche taktyke intela z prockami z seri e2xxx .. procki z najnizszej polki w bardzo dobrej cenie architektura conroe a jedyna roznica to mniejsza ilosc cache .. i co ciekawe na podobnych taktach w grach mniejsza ilosc cache robi marginalna roznice w osiaganych wynikach [3-5% mniej w stosunku do e6xxx] a jak sie to ma do ceny kazdy chyba wie ;] jasne jest ze najwiecej kasy przynosi wlasnie low i mid end ;] NVIDIA pewnie dopiero w wakacje pokaże mocną odpowiedź na HD ATi. bo poki co nie ma za bardzo na co odpowiadac - 8800 ciagle rzadzi pod wzgledem wydajnosci wiec moga zrobic sobie wolne - stad odswierzanie 8smej serii ;] Edytowane 14 Października 2007 przez ChomiK Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość Pussik Opublikowano 15 Października 2007 Zgłoś Opublikowano 15 Października 2007 (edytowane) Wiesz co Ciupek? ;] Jakbym składała kompa z głową na karku do zapotrzebowań mojego ego, mając w ch... kasy to bym kupiła: 2x TV 40" HD (dla mnie i córki) XboXa 360 kompa do pracy z CoreQuadem Extreme, 8GB ramu pod Vistą 64bit 3 monitorami LCD 30" 1 monitorem dotykowanym Wacoma jako tablet a w kompie 2xGF8800Ultra na zmianę z HD2600GT do filmów HD Generlanie to przydałyby się dwa kompy, drugi robiłby za farmę. No to pojechałam :> ------------------------------------------------------------------------------------------------------------------------------------ Screen 8800GT z GPU-Z Expreview kolejny raz uracza nam smakołykiem o nazwie G92, prezentując screen z programiku GPU-Z. Sama aplikacja jest dość młoda i nie wszystko odczytuje prawidłowo, jednak wystarczy spojrzeć na odpowiednik w postaci CPU-Z, by przewidywać jej umiarkowany sukces Na załączonym screenie widać iż najnowszy GeForce 8800GT charakteryzuje się: Biosem: 62.92.0 F.00.04 Rewizją: A2 Taktowaniami: 600/1500/900 (gpu/mem/shaders)<br> Złączem: PCI-E 2.0 Sterownikami: 167.26 pod Viste Ilością pamięci: 512MB Jednostkami: 7 pixel shaderów, 7 ROPów Redaktorzy twierdzą iż aktualne taktowanie jest błędnie odczytywane i 50 procentowy overclocking nie nastąpił. Edytowane 15 Października 2007 przez Pussik Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość l33tno0b1n Opublikowano 15 Października 2007 Zgłoś Opublikowano 15 Października 2007 (edytowane) Teraz zauważyłem, że tamte testy były robione w PCiex a 8800GT ma obsługiwać też Pciex 2.0 czyli można się spodziewać jeszcze większej wydajności? Czyli to nie jest OC z 1500 na 2250 a tylko błąd pomiaru? A te ropy i shadery? Czemu tylko 7? Chyba też błąd. Direct Xa też nie wykrywa ale chyba nie jest to spowodowane obsługą przez kartę DX10.1. Tu dla porównania 8800Ultra GPU-Z ( tak dla porównania gdyby pojawiły się prawidłowe odczyty z GPU-Z) http://img84.imageshack.us/img84/5807/gpuzmi3.jpg Edytowane 15 Października 2007 przez l33tno0b1n Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
satoshie Opublikowano 15 Października 2007 Zgłoś Opublikowano 15 Października 2007 Dwa news'y z http://www.fudzilla.com/ 8800 GT cannot do triple SLI We've learned a quite disturbing fact. The soon to be launched, Geforce 8800GT won’t feature support for the upcoming Triple SLI. This will be a feature reserved only for the high-end cards but we have confirmed a few details for the this and will follow up on this one as soon as we can. It looks like Triple SLI will be a high-end card feature only and it won’t work on slower cards. You will need a new 780i chipset to get Triple SLI operational and this chipset comes in November. 8800GT to be available at the launch But in limited numbers Geforce 8800GT will launch on the 29th and Nvidia will prove that it can ship the cards back to many etailers and retailers at the launch date. Do not be surprised if the 8800GT gets sold out soon after the launch as this is going to be a very sexy product and many will want to buy one. Some people might hold their breath to see the Radeon HD 2950XT in action as it will cost roughly the same and it will launch about two weeks later, but Nvidia is walking on very solid ground with 8800 GT. This single slot card looks attractive and it should be quite fast as well. We can confirm that the partners are making their own cards and that, at the same time, Nvidia is making reference cards for the ones who don't like to mess with Nvidia reference design. The boxes are being printed and the cards will be available at launch, on the 29th. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość Pussik Opublikowano 15 Października 2007 Zgłoś Opublikowano 15 Października 2007 Żadna nowość z tym brakiem supportu dla Tri-SLi. 8800GT, jak było widac na fotce pcb, posiada tylko jedno złącze dla mostka, gdzie GTX i Ultra posiadają dwa. Ciekawe jednak czemu, NVIDIA nie planuje wybudować PCB na przykładzie GTX`a i Ultry. :> Może producenci sie tego podejmą? (już to widzę) ;] Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
cavarr Opublikowano 15 Października 2007 Zgłoś Opublikowano 15 Października 2007 Teraz zauważyłem, że tamte testy były robione w PCiex a 8800GT ma obsługiwać też Pciex 2.0 czyli można się spodziewać jeszcze większej wydajności?Jeżeli "tamte" testy nie były ściemą to wydajność nie powinna być wyższa, w granicach błędu pomiarowego. Czyli to nie jest OC z 1500 na 2250 a tylko błąd pomiaru? A te ropy i shadery? Czemu tylko 7? Chyba też błąd. Direct Xa też nie wykrywa ale chyba nie jest to spowodowane obsługą przez kartę DX10.1. Tu dla porównania 8800Ultra GPU-Z ( tak dla porównania gdyby pojawiły się prawidłowe odczyty z GPU-Z) http://img84.imageshack.us/img84/5807/gpuzmi3.jpg GPU-Z jest programem w fazie pre-alpha ;) na co wskazuje ver. 0.0.7, więc nie ma co się sugerować tym programem, gdyż wiele jest jeszcze do poprawienia :-P Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość Pussik Opublikowano 15 Października 2007 Zgłoś Opublikowano 15 Października 2007 Nom, aż dziwne że Tobie na 8800 wszyskto pokazuje dobrze. ;] Mi na 7600GT nie odczytuje połowy rzeczy, a kilka błędnie. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
morgi Opublikowano 15 Października 2007 Zgłoś Opublikowano 15 Października 2007 (edytowane) jasne jest ze najwiecej kasy przynosi wlasnie low i mid end ;] bo poki co nie ma za bardzo na co odpowiadac - 8800 ciagle rzadzi pod wzgledem wydajnosci wiec moga zrobic sobie wolne - stad odswierzanie 8smej serii ;] Na dobra sprawę to jest RV670 i z opisów i dochodzących głosów będzie znacznie wydajniejsza od HD2900. Bloki RBE zupełnie przeprojektowano w celu poprawy kompresji Z, color, color+Z, pozostaje bez zmian kompresja tekstur głębi i szablonów, wydajność MSAA poprawiona; zostawiono wewnętrzny kontroler pierścieniowy 1kbit; wstrzymano produkcję R600, stąd niska dostępność tych kart. Za miesiąc może być wreszcie spełnione oczekiwanie na wielki comeback wydajnościowy ATI. Edytowane 15 Października 2007 przez morgi Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
kurniczek Opublikowano 15 Października 2007 Zgłoś Opublikowano 15 Października 2007 a kiedy premiera nowego dziecka ati? Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość l33tno0b1n Opublikowano 15 Października 2007 Zgłoś Opublikowano 15 Października 2007 a kiedy premiera nowego dziecka ati? Wejdź do działu o kartach ATI to zobaczysz. "life sucks if you recently bought a GTX." http://www.theinquirer.net/gb/inquirer/new...92-scores-outed UWAGA tam jest oczywiście błąd zamiast 3dmark05 powinno być 06 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Keniger Opublikowano 15 Października 2007 Zgłoś Opublikowano 15 Października 2007 Hmm... wyższe wyniki niż GTX i ULTRA, czyli NVIDIA strzela sobie w łep?. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Lanc Opublikowano 15 Października 2007 Zgłoś Opublikowano 15 Października 2007 HD2900XT też ma wyższe wyniki od Ultry w 3DMarkach.... Szkoda, że tylko w nich... [; Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość l33tno0b1n Opublikowano 15 Października 2007 Zgłoś Opublikowano 15 Października 2007 Hmm... wyższe wyniki niż GTX i ULTRA, czyli NVIDIA strzela sobie w łep?. Strzeliła by sobie w łeb gdyby wydała kartę gorszą od RV670. Nowy Radek ma obsługiwać DX10.1 jeżeli miałby być jeszcze wydajniejszy od 8800GT i zbliżony w wydajności do GTXa. To kto kupiłby 2 razy droższą Ultre i GTXa? Po wyjściu nie wiele mniej wydajniejszego GT za to 2 razy tańszego i tak bardziej się opłaci kupić 2X8800GT niż jedną Ultrę więc czas Ultry dobiega końca. Najlepiej by było gdyby 8800GT byłby wydajniejszy od 2950 nawet kosztem GTXa czy Ultry. Ciekawe jeszcze co pokaże nowy 8800GTS NV siedzi cicho na jego temat a premiera ponoć 29/10 czyli razem z 8800GT. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
cavarr Opublikowano 16 Października 2007 Zgłoś Opublikowano 16 Października 2007 * G92-270-A2 revision (65nm, Week 37 2007) * 37.5mm x 37.5mm 1148-pin FCBGA package * Core clock : 600MHz / Shader clock : 1500MHz * VGPU = 1.05±10.5mV * 10-layers PCB revision G92P393 * 8 chips of 16M x 32 Qimonda HYB18H512321 BF-10 @ 2V * 256-bit 512MB GDDR3 @ 900MHz (Effective 1GHz) * Coolermaster TM69 single slot cooler * 3 heat-pipes, 1000-3200RPM, 34dB * 110W TDP (Requires 6-pin PCIe connector) * NVIO/HDCP GeForce 8800 GT GPU Qimonda HYB18H512321 BF-10 GDDR3 GPU GDDR3 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
BorysVasiliev Opublikowano 16 Października 2007 Zgłoś Opublikowano 16 Października 2007 ooo dobrze że coś wychodzi ... bo szukam grafy z granicy 800-900 zł a nic ciekawego nie ma. Moj Palicik sie juz wysluzyl i spisal naprawde swietnie :). I tak naprawde nia mialem go na co zmienic.... czekalem az sie doczekalem. Bo przeskok cenowy byl naprawde za duzy. juz tylko 2 tygodnie zostaly :) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Sector19 Opublikowano 16 Października 2007 Zgłoś Opublikowano 16 Października 2007 Heh wyglada jak 6800GT :P Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Blazejj Opublikowano 16 Października 2007 Zgłoś Opublikowano 16 Października 2007 (edytowane) No zapowiada się ciekawie. BTW Będe zamawiał ze stanów w połowie listopada wersje z 512/256ram więc jakby co to piszta ludzie to wyjdzie mniej za przesyłke i za karte(cena oczywiście taka jaka będzie w dolarach USD, a przesyłka ~23$) :) Edytowane 16 Października 2007 przez Blazejj Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
HeatheN Opublikowano 16 Października 2007 Zgłoś Opublikowano 16 Października 2007 ooo dobrze że coś wychodzi ... bo szukam grafy z granicy 800-900 zł a nic ciekawego nie ma. Moj Palicik sie juz wysluzyl i spisal naprawde swietnie :). I tak naprawde nia mialem go na co zmienic.... czekalem az sie doczekalem. Bo przeskok cenowy byl naprawde za duzy. juz tylko 2 tygodnie zostaly :) Tylko 2 tygodnie abys zobaczyl cene o 400-500zl wieksza niz zakladasz;] Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość l33tno0b1n Opublikowano 16 Października 2007 Zgłoś Opublikowano 16 Października 2007 (edytowane) Tylko 2 tygodnie abys zobaczyl cene o 400-500zl wieksza niz zakladasz;] Nie wiem jak Ty przeliczasz 250$, że Ci 1400zł wychodzi :lol: Tyle to może kosztować nowy GTS 640MB :wink: Którego premiera ma być 19 Listopada http://64.233.179.104/translate_c?hl=en&am...icial%26hs%3DIX Edytowane 16 Października 2007 przez l33tno0b1n Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
#matthew Opublikowano 16 Października 2007 Zgłoś Opublikowano 16 Października 2007 mało prawdopodobna ta cena . ciekawe czym nas nvidia zaskoczy ;) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość l33tno0b1n Opublikowano 16 Października 2007 Zgłoś Opublikowano 16 Października 2007 mało prawdopodobna ta cena . ciekawe czym nas nvidia zaskoczy ;) Nie rozumiem co w tym dziwnego. 65nm to tańszy proces ATI wydaje poważnego konkurenta w postaci Rv670 8800 ma już około roku czas by ceny spadły 8800 to nowy med-end od NV a pamiętacie jak było gdy 7600 pokonywał 6800 ? Ceny w dolarach są już podane Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość Pussik Opublikowano 16 Października 2007 Zgłoś Opublikowano 16 Października 2007 250 dolarów to sugerowana cena przez NVIDIĘ dla klienta końcowego w USA. Jednak dopieor gdy produkt będzie ogólnodostępny. Jażeli jakiś sklep sprowadiz karty tydzień rpzed wszystkimi to moze robic co chce i na ten tydzień nałożyć marżę +20%. :] Kto im zabroni? Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
adnet Opublikowano 16 Października 2007 Zgłoś Opublikowano 16 Października 2007 Ceny w dolarach, to ceny w dolarach. U nas w UE walną to samo, ale w Euro i już bedzie po ~1200zł Jednak wreszczie cos sie ruszyło i bedziemy mieć coś ze środka stawki. Trzymam kciuki za ATI, jako stary fan, ale przede wszystki, żeby Nvidia dała dobre ceny na nowy/stary sprzęt. Konkurencja zawsze robi dobrą cenę B-) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...