-
Postów
1028 -
Dołączył
-
Ostatnia wizyta
Treść opublikowana przez xor
-
Genghiskhan, nie unos sie :wink: I powiedz szczerze, czy nie wyglada ta karta troche zabawnie :) Osobiscie mi sie podoba, moze nawet bardziej niz referencyjny gf 6800Ultra (ktory jest IMO jedna najladniejszych kart), ale to nie zmienia faktu, ze jast to KARTA GRAFIKI do komputera domowego, nie do czolgowego !
-
He 8) Owszem, karty na 2.5k PLN z cala pewnoscia nie kupie - ale tak max 1.2 jeszcze przelkne... natomiast jesli 6800 nie ultra faktycznie bedzie sie dalo odblokowac, to hohoho... Tylko max oc to 48MHz ? Strasznie malo... Moze karta domyslnie jest juz wyzylowana do granic, a moze producent chipow i pcb dla nv musi po prostu troche sie 'wyrobic', i dlasze beda si ekrecily jak marzenie... Przyszlosc pokaze. A najsilniejszy r420 bedzie najprawdopodobniej mial minimalnie wyzsza wydajnosc od tego 6800 Ultra. Tak mi szeptaja do ucha prawa rynku :wink:
-
BYLO ! :wink: Juz ktos to zacytowal, ze 'r420 nie rozczaruje' :) Natomiast globalnie, co do 6800Ultra, to jesli zalozyc, ze bugi w jakosci gen. obrazu zostana usuniete bez uszczerbku na wydajnosci, to ta karta miazdzy ! Troche tez psuja obraz wymagania co do zasilania - w koncu mam 'tylko' Chiefteka 420W... :wink: Aczkolwiek w jednym z testow ktos zmierzyl ilosc pobieranego pradu, i wyszlo mu, ze teg geforce w idle bierze mniej niz radek 9800xt, natomiast w stresie niewiele wiecej niz FX 5950Ultra, wiec niby nic strasznego, ale gosciowi wyszlo, ze sama grafa brala ponad 200W...
-
chyba zamiast inzynierow od chlodzenia wzieli architektow, i Ci wybudowali przez pomylke nad rdzeniem hangar dla Jumbo-Jetow !
-
Dobra dobra, pewnie, ze kwestia sterow - pytanie tylko, ile na wydajnoscie sie traci niwelujac te babole. Zreszta w porownaiu jakosci shaderow z FarCry n aTomsHardware nVidie strasznie badziewnie wygladaja :( A tak nawiasem - w recenzji na xbitlabs ciekawe sa pewne niuanse - czasami wydajnosc 6800 z AFx16 jest wyzsza niez z AFx8 8O :!: Hmmm...
-
8O Zerknij na ustrzenie pionowe UPDATE : Jeszcze jedna recka, na Anandtechu http://www.anandtech.com/video/showdoc.html?i=2023
-
I kolejne recenzje : http://www.xbitlabs.com/articles/video/dis...splay/nv40.html - 48 stron !! http://www.3dcenter.org/artikel/nv40_techn...nik/index_e.php http://www.beyond3d.com/previews/nvidia/nv40/ http://www.3dgpu.com/modules/news/article....php?storyid=926 http://techreport.com/reviews/2004q2/gefor...ra/index.x?pg=1 http://www.firingsquad.com/hardware/nvidia...rce_6800_ultra/ http://www.nordichardware.com/reviews/grap...card/2004/nv40/ A teraz kilka slow, ktrych nie zdazyle wczoraj szkrobnac. Oj, mizerioa - nVidia ponownie dala ciala z jakoscia renderingu ! Jak zreszta ktor juz raczyl zauwazyc w FarCray-u. Patrzcie tu : http://www20.tomshardware.com/graphic/2004...ce_6800-46.html i jeszcze to : Geforce 6800Ultra ATI Radeon 9800XT Miejmy nadzieje, ze w nowych sterach to poprawia bez wiekszego spadku wydajnosci. Bo w tej chwili co mi po shaderach 3.0, jesli i tak jakosc obrazu jest do *$#%!... UPDATE : aaa, i jeszcze zerknijcie tu http://www.trustedreviews.com/article.aspx...age=868&head=15 na Halo Timedemo... Coz, ten geforce jest pierwsza karta, ktora szybciej dziala w 1280x1024 niz 1024x768 :!: :lol: :lol: :lol: Nie ma to jak profesjonalnie zrobiony test... :?
-
I jeszcze na TomsHardware : http://www20.tomshardware.com/graphic/2004...0414/index.html Axl2000 --> ehem, przegladnij jeszcez raz wyniki... gdzie niby tak kieprawo jest z shaderami 2.0 ? W dostepnych testach Shadermarka nv40 masakruje :!: W gierkach tez. AAx8 jest kiepski - ale dobrze to wyjasnili w ktoryms z testow - jest to multisapling x 4 + supersampling x 4, ktory jest baaardo wolny...
-
I jeszcze jedna recka :) http://www.hexus.net/content/reviews/revie...mlld19JRD03NDc=
-
Tzn za rok ? Eee, wtedy beda juz nastepne modele... :wink: :P :twisted:
-
I kolejna recka : http://www.hothardware.com/hh_files/S&V/nv...v40_debut.shtml
-
I kolejne recenzje : http://www.guru3d.com/article/Videocards/128/ i glownie ta : http://www.hardocp.com/article.html?art=NjA2
-
Nie no, coraz bardziej jestem przekonany, ze z tymi 3dmarkami to jeden wielki zwalek - w testach wychodzi, ze powinna byc MIN 2x szybsza od 5950 - a benchmarki w grach to ledwo nascie/dziesiat procent wiecej... Czyzby znowu 'optymalizacje' :?: Tak samo - dlaczego w unreal tournament2004 nie ma renderowanego nieba ? Ale najdziwniejsze - dlaczego nie rusza shadermark, w ktorym wszystkie produkty nvidii dostawaly po pupie ? Oczywiscie padnei odpowiedz : niedorobione drivery. Hmmm - moze, a moze po prostu jeszcze nei umiescili optymalizacji 'per application'... UPDATE : ehem, chyba sie troche pospieszylem... :P Wlasnie dorwalem inne wyniki - i hmm, calkiem niezle wygladaja... Jesli taka bedzie rzeczywista wydajnosc karty - to winszuje, winszuje... Jeszne jest zewnetrznie piekna, wiec byc moze cos wreszcie nVidia wyda, co chetnie bym kupil :)
-
Poprawiam Cie - shadery 3.0 to nie dx9.0... :) shadery 3.0 ma miec dopiero dx10 UPDATE : He ? 9.0c ? To widac mam nieaktualne informacje... O ile pamietam, ten dx mial miec numerek 10.0. Coz, widac zmienili numeracje... :wink: W takim razie : shadery 2.0 ma dx9.0b, shadery 3.0 ma miec dx9.0c UPDATE 2: Jest to duzy OT, jedna nawiazuje do linku tutaj podanego... Popatrzcie sie tu : http://mbnet.fi/elixir/NV40/10817474486qLM...meutS_5_9_l.jpg http://mbnet.fi/elixir/NV40/10817474486qLM...meutS_5_8_l.jpg Niedosc, ze 5950 ma mniej fps-ow, to jeszcze oszukuje i bryka bez shaderow 2.0... Wiem, byly o tym topiki, ale tutaj przy okazji pojawilo sie fajne porownanie - i raczej nie ma mowy o tym, ze jest tu jakis 'przekret' na niekozysc nVidii... Wiec tym bardziej interesujace sie wydaje 'objawienie' swego czasu na forum goscia z 5900xt ktoremu bryklal super-plynnie FarCry z shaderami 2.0... hmm...
-
A mi sie cos widzi, ze nVidia znow popelnila blad, a ATI wykazalo sie sprytem... Mianowicie po pierwszych wynikach wynika, ze 6800 ma znowu doskonala wydajnosc w starych aplikacjach <= dx8.1 (dokladnie jak fx-y), a z dx9.0 jest na poziomie radka9800xt :( I co z tego, ze ma shadery 3.0, jak jeszcze praktycznie nie ma gier wykorzystujacych 2.0... IMO zdecydowanie madrzejsza decyzja jest zrobienie super-szybkiej karty dx9.0 bez jakiejkolwiek implementacji shaderow 3.0. Wiec obawiam sie, ze ATI ze swoja r420 znow bedzie gora... Oczywiscie moje 'wywody' sa oparte na bardzo mglistych jeszcze podstawach - zweryfikuje te hipoteze za kilka dni, jak juz wszystkie powazniejsze serwisy porobia benchmarki :)
-
generalnie po 40PLN max dla hitow - 70PLN
-
Coz, ja sie przestawilem na soczewki jakies 2 miesiace temu. Niestety u mnie nie jest tak slodko - ciagle czuje, ze mam cos w oczach - ale TYLKO I WYLACZNIE jak siedze w pracy przed komputerem. Wiec przy kompie siedze w okularach. Natomiast w czasie chodzenia - no cos wpanialego ! A najlepsze jest uczucie 'wreszcie widze tak, jak bylem maly' :wink: Powaga - wszystko ostre pod kazdym katem, zadnego parowania, brudzenia, ciezaru na nosie, itp. Ekstra sprawa - al etroszke kosztowan, choc nie tak bardzo, jak kiedys myslalem ! Aha - trzeba byc czujnym i nauczyc sie uwaznego 'przecierania oczu' - czy to z powodu zmeczenia, czy cos tam zaswedzi ! Kiedys sie mi zdarzylo, ze sobie je zwinalem i byl naprawde spory klopot...
-
Ja zamowilem juz w polowie stycznia :) Na razie gram w X:BTF. Jak przejde, wezme sie za 2.
-
A ja mam takie pytanko z innej beczki. Na pierwszym zdjeciu widze pudelko po Solteku SL-75FRN2. Zaryzykuje stwierdzenie, ze po moim :) Jakies sukcesy w zabawie w wymiane NB ? Ale jak widze, juz masz troche czasu, wiec moze znalazlbys kosteczkke mojego biosa i mi ja odeslal :?: :wink:
-
Powinno dac, choc nie musi. Spowoduje to spowolnienie dostepu do danych w pamieci karty, ale dzieki temu powinien wzrosnac prog MHz bez wykazywania bledow w transmisji. Z tym, ze pomimo wzrostu oc w MHz, wydajnosc moze nie wzrosnac, a czasem nawet istotnie spasc. Ale sprobowac nie zaszkodzi :) podobny motyw jest w podmiani biosu oryginalnego na radku9700 'komputronik' na biosik od Herca9700pro - ustawia on ciut gorsze timingi dla pamieci niz oryginalny z tego radzia9700, i dzieki temu u mnie z max 621 podskoczylo do 700 :) Ale wydajnosc wzrosla minimalnie.
-
Tutaj lezy kilka filmikow pokazujacych shadery 3.0 na NV40 http://developer.nvidia.com/object/sdk_home.html Jesli juz to gdzies bylo - sorki, wtedy niech ktorys z modkow sie ulituje i usunie tego posta :wink:
-
Na forum www.ocedcompz.com.ru/gutwitz/forum/ kiedys pisali, ze na niektorych gfFX9700 wzrastala szybkosc aplikacji z AF pod wplywem... wydluzenia nozki od jakiegos tam ukladu. Nie pamietam ktorego, ale niezly LOL. Ja juz nie bede eksperymentowal - wystarczylo mi przelutowywanie rdzenia. A naprawde - robienie tego lutownica kolbowa 100W jest cholernie wyczerpujace... Ale wszystko poszlo ok - tylko przez przypadek wylutowal mi sie jeden piep*** rezystorek - jeden z tych malutkich zaraz obok rdzenia... Jak go przylutowalem, to okazalo sie, ze troche nie w to miejsce, na ktorym byl wczesniej... :oops: Od tego czasu zauwazylem, ze z AA karta dziala szybciej, niz wczesniej. Niestety, nie jest to jednak az 21%, tylko srednio ok. 17. Ale i tak niezle :!: I kto wie, Kucyk, moze ktorys inny poprawilby AF... :wink: Aa - jutro bede testowal cosik - zdejme molexa (wtyczke dla niego z karty tez wylutuje) i przylutuje koncowki bezposrednio do karty - zmniejszy to straty energii zasilacz-karta. Powinien wzrosnac potencjal OC. Zyczcie szczescia :wink: :P UPDATE 02.04.2004 : oczywiscie wszystko co powyzej to prima aprilisowe kity :)
-
Hmm, ciekawostka - przelutowalem przez przypadek pewien rezystorek kolo rdzenia, i karta cos jakby lepiej bryka z AA... Jeszcze zrobie dokladne testy... Jak na razie wzrost o 21,12% wydajnosci przy 6xAA w 3dm2003. Ale moze to jakis burak... UPDATE 02.04.2004 : oczywiscie wszystko co powyzej to prima aprilisowe kity :)
-
Atari65XE (chyba 1991 rok) 386DX 40MHz (1993/1994) Pentium 60 (1995/1996) DLT3C1700+ (2003 :P) I tak, to prawda - od 1996 do 2003 siedzialem na P60, i az do ostatniej chwili bardzo aktywnie - zeby bylo smieszniej, zajmowalem sie grafika 3D w Lightwave5.5... :lol: :P Ale przed kompem siedzialem od 1987. Byly to oczywiscie wiekopomne, bialo-czarne skrzynki Elwro 800 Junior :D Bylo tez jakies ZX, ale to juz tylko dla wybrancow z 7 i 8 klasy (ja bylem w 2...), ale czasami mozna bylo popatrzec przez ramie, jak tlok byl mniejszy... Byly i Meritum II (albo I - juz nie pamietam), ale nie bylo na nie gier, a i nie dalo sie specjalnie rysowac po ekranie znaczkami specjalnymi, wiec malo przed nimi siedzialem... :lol: :P Ale jakies programy z Bajtka tam wstukiwalem... :) Oops - sorki za off-topic, ale jakos tak sie mnie wziely sentymenty...
-
Moze kilka rad : kupcie sobie kilka sztuk opornikow nastawnych (potencjometry) 20kOhm, a najlepiej 50kOhm (takie malutkie rownolegloboki ze srubeczka i 3 nozkami), ustawcie na najwiekszy opor, i przylutujcie - zmieni to w minimalnym stopniu napiecia. Potem ciagle sprawdzajac wlasciwe napiecie, kreccie srubka zmniejszajac opor (te 50kOhm maja bardzo maly wspolczynnik zmiany opornosci na 1 obrot srubka - wiec trzeba sie niezle nakrecic) - napiecie bedzie sie zwiekszalo, ale baardzo powoli. I tak krok po kroku podkrecajcie, sprawdzajcie stabilnosc i podkrecalnosc, itd... Potencjometry 20 czy 10kOhm przewaznie sa w ksztalcie okregu z wcieciem na srodku (na srubokret) i rowniez 3 nozkami - przy nich uwazajcie - one sie istotnie roznia czuloscia od przytoczonych 50kOhm 'ze srubka' - zmiana z min na max. opornosci nastepuje przy obrocie tylko o 300 stopni, wiec tu musicie byc cholernie delikatni zeby sobie czegos nie sfajczyc... Osobiscie proponowalbym przylutowanie opornika nastawnego 20 lub 10kOhm do vgpu moda, 20kOhm do vmem moda oraz te 'srubkowe' 50kOhm do vref i vddq modow. Tylko wazna kwestia - kupcie oporniki nastawne LINIOWE. I jeszcze male wyjasnienie - dlaczego 3 nozki - otoz jesli jest ustawiony minimalny opor pomiedzy jedna skrajna nozka a srodkowa, to wtedy pomiedzy przeciwna skrajna a srodkowa jest opor maxymalny dla danego opornika. Wiec generalnie wybierzcie sobie jedna ze skrajnych, a druga zagnijcie :) Mam nadzieje, ze te informacje sie komus przydadza :)