Skocz do zawartości

BezbronnyPL

Stały użytkownik
  • Postów

    754
  • Dołączył

  • Ostatnia wizyta

Treść opublikowana przez BezbronnyPL

  1. Widze ,że temat szyny 512bit ciągle wraca(?). Tylko ,że jest jeden problem-dzisiejsze high-endowe karty graficzne raczej nie są ograniczane przez przepustowość pamięci,a głównie przez ilość operacj na pikselach.I dlatego też,w najnowszych konstrukcjach ilość jednostek pixel shader w stounku do jednostek mapujących tekstury jest w stosunku 3x1(R580).Ilość operacji na teksturach w każdej praktycznie nowej grze spada,więc automatycznie zapotrzebowanie na przepustowość pamięci również maleje.Dzisiejsze karty nawet w wysokiej rozdzielczościch radzą sobie świetnie(i są mimo wszystko ograniczane przez CPU)więc szyna 256bit w zupełności wystarcza. Jest jeszcze inny aspekt zastosowania szyny 512bit,taka magistrala wymagałaby bardziej skomplikowanej(czyt.droższej) PCB ,a w tej chwili trend jest taki ,że GPU/VPU mają zgodne wyprowadzenia z wcześniejszymi modelami,dzieki czemu można stosować PCB od starszej generacji kart do nowszych(np.PCB 7800 w GF 6800GS choć 6800 trudno nazwać nowszą kartą). NV z G71 idzie trochę inną drogą-ilość TMU jest równa ilości Pixel Shaderów.Która droga jest lepsza? Nie wiedzą tego ani spece z NV ani z ATI.Nie wiedza bowiem ,co zechcą zastosować programiści.Stąd "wycieczki" przedstawicieli firm do developerów ,służące zaprezentowniu możliwości mowych GPU/VPU i przekonanie ich do własnych rozwiązań.W przypadku GF7xxxx inzynierowie przanalizowali wiele programów shaderowych-czego skutkiem była dodatkowa ALU w pixel shader .Goście z ATI z kolei ,przeanalizowali ogólny trend obrazujący stopień wykorzystania jednostek cieniujących piksele w stosunku do operacji na teksturach i widać ,że przynajmniej na dzisiejszy czas +6miesięcy,wybór jest słuszny.X1800 ukazał się z dużym(zbyt dużym) opóźnieniem więc tak naprawdę nawet nie zdąrzył zbytnio zagrozić GF7800 ,a już pojawił się znacznie lepszy-poki co tego jeszcze tego nie widać-X1900(kompilator w sterownikach jest ciągle poprawiany/optymalizowany-ale już głównie dla R580). A DX10 i Shader Model v.4 to pieśń przyszłości-i to tym dalszej im póżniej ukaże się Win.Vista,a może sie ukazać dopiero w 2007r.Nie wpominam już ,że developerzy jeszcze nie wykorzystują połowy mozliwości SM.3 a co dopiero SM.4(nawet w takich oczekiwanych tytulach jak Oblivion wykorzystywane są sporadycznie). Także dzisiejsze topowe karty na pewno bedą jeszcze dlugo służyc.Demo Unreal Engine 3(UT2007)ma sie ukazac odpowiednio wcześniej (lato 2006?)by zdążono zoptymalizowac sterowniki,dopiero wtedy (i po Oblivion),bedzie można powiedzieć coś o wydajności nowych zabawek ze stajni ATI i NV.
  2. Pierwsze testy GF7800GS vs X850XT Wynika z nich ,że GeForce (400/1250)ma bardzo zbliżoną wydajność do X850XT,w niektórych testach jest szybszy w innych wolniejszy.Ten model z linka podkręcili na 500/1390. Wygląda na to ,że pomimo ukazywania się nowych kart na AGP,producenci nie chcą i nie będą oferować niczego wydajniejszego niż poziom ustalony przez 6800 Ultra oraz X850XT PE. Trzeba będzie coś zrobić z tymi topicami,bo faktycznie jest ich kilka( nie zauwazyłem-choć sprawdzłem czy są podobne- widac ,że nie dość dokładnie). Moderatornia niech zadziała-bo nie ma co śmiecić.
  3. Ostatnio wspominałem o LOD bias ale nie sądziłem ,że rozniesie się to jako trik... O RT już nie będe pisał ,ale skrobne coś o sterownikach.Większość tych super sterowników ma powłączane niektore optymalizacje(pogarszające nieznacznie jakość obrazu),więc nie dziwne ,że wyniki są na nich lepsze. Jakoś ci-poniekąd zdolni -panowie nie napisali nowego, WŁASNEGO sterownika,wszystkie są oparte na standartowych. Na sterach NV włączenie np.trybu "wysoka wydajność" nie wplywa na wynik w markach,ponieważ 3dmark uruchamia się z własnym profilem(High Qualty).Za pomocą programu nHancer 1.x można bardzo łatwo zmieniać i tworzyć własne profile(np.gra x z FSAAx4 +FAx8 a inna bez FSAA i FA)również ustawienia Intellisample można zmieniać. Hejka.
  4. Napisze coś od siebie-ale nie to ze się wtrącam :) Kamienie milowe grafiki(IMHO) GeForce 256-pierwszy konsumencki układ ze sprzętowym T&L.układ 256bit szyna danych 128bit GF3(a raczej jego prekusor z NV2A z Xbox-a)-pierwsze programowalne jednostki pixel i vertex shader.Po raz pierwszy akcelerator 3d stał się programowalnym procesorem.GPU 256bit,szyna 128bit(2x64bit2 kanały) R300(R.9700)-legendarna karta która w zasadzie sprawdza się po dziś.8 potoków 256bit/szyna 256bit i wiele funkcji DX9 ktore zagościły u NV dopiero wraz z premierą GF6xxx. Matrox Parchelia była układem 512bitowym z szyną 256bit ale nie umieszczam jej na tej liście. Co do szyny 512bit-w zasadzie jest już obecna ,a sciślej mówiąc X1800/1900 ma WEWNETRZNĄ szynę działającą jak 512bit(8x32bit-Ringbus zamiast 4 kanałowego kontrolera 4x64bit =256bit).
  5. Jeżeli chodzi w ogóle o AGP ,to producenci -jakby mogli-to najchętniej zapomnieliby o kartach na tym slocie. Niestety( konkurencja!) ciągle są "zmuszani" do wypuszczenia czegoś na AGP.Rynek nie znosi prózni,wystarczyło ,że zaczęło brakować wydajnych 12 potokowych kart i już NV wypuściła GF6800GS.Nie mogli przecież pozostawić luki w swojej ofercie dla produktów ATI.Poza tym, kanadyczycy także nie zostawiają AGP w zapomnieniu oferując X1600xx -a początkowo też mówiono ,że takich wersji nie bedzie. 7800GS wypełnia lukę po 6800GT,niestety 16 potoków to trochę rozczarowujące.Na pocieszenie pozostaje bardziej zawansowana architektura -Pixel Shadery z dodatkową jednostką ALU i wyższe(OC?) częstotliwości taktowania. Dla kogoś kto posiada np.6800GS/6800GT zakup praktycznie niopłacalny i prawdopodobnie własnie tych konsumentów NV(i inni producenci)chcą "przymusić" do wymiany platformy an PCI-E. Przecież gdyby zaoferowali coś lepszego ,to wielu ludzi posiadający stosunkowo niezły sprzęt(CPU) wstrzymałoby się z wymianą platformy. W każdym czasopiśmie,prawie każdej stronie internetowej dziennikarze używają zwrotow-AGP to przeszłość,nienowoczesne ,zapomniane itd.itp.Tylko jest jedno ALE-około 55%(zrobiłem UPDATE) kompów posiada jeszcze własnie ten port.Jasno więc widać ,że rynek jest b.duży i nie można go pozostawić ot tak sobie. Na razie działy marketingu wykonują ciężką pracę by wreszcie wbić WSZYSTKIM do głowy, że już teraz ,natychmiast muszą się przesiąść:"PCI-E dzięki wyższej przepustowości zapewni wyższą wydajność","obsługa SLI/Crossfire zapewniająca niespotykaną wydajność",taki i tym podobne slogany piorą mózgi małolatów. Tylko jakoś nikt nigdy nie wspomni,że przepustowość PCI-E w porownaniu z przepustowością pamięci na kartach graficznych jest i tak śmiesznie niska(4GB/s vs np.30GB/s)i jej wpływ na wydajność w dobie kart z 256MB jest znikoma.A SLI /Crossfire-to bardziej marketing niż rzeczywista potrzeba,zakup 2 kart prawie zawsze jest niopłacalny.Za drugą kartę musimy zapłacić w 100% a wydajność o tyle nie wzrośnie. A Ageia-została wyceniona wstępnie na ~200$ także gadżet drogi i w zasadzie dla entuzjastów.Do wykorzystania w UT2007 i nowym Morrowindzie.Zakup do kilku tytułów-praktycznie nieopłacalny.Jezeli ktoś będzie gral po sieci-Ageia OFF.Havoc(F.E.A.R.)też jest niezły i wykorzystywany w ponad 100 tytułach. Wracając do 7800GS ,to raczej karta dla posiadaczy wolniejszych kart,lub nagle stwierdzą ,że potrzebują procesora Video(NV Pure Video)który to jak wiadomo w GF6800 jest niewpelni sprawny.Znowu sie rozpisałem...pozdr!
  6. sprawdz to -na pewno pomoże klik
  7. BezbronnyPL

    Geforce 6600 GT - AGP

    W tym małym FAQ napisałem wyraznie w pkt.6 ,że kazdy musi sprawdzić sobie sam czy lepsze rezultaty osiągnie na luznych czy na agresywnych opoznieniach. Wystarczy bowiem ,że producent zastosował luzniejsze ,bardziej zachowawcze opóznienia i w tym przypadku zastosowanie krótszych może dać przyzwoite rezultaty. W przypadku gdy już fabrycznie są agresywne ,to jest już gorzej(ze stabilnością z reguły). Każde pamięci kręcą się troche inaczej, wzrost wydajności o kilka % jest zupełnie pomijalny-bo w praktyce nie do wychwycenia.Natomiast w przypadku walki o kazdy pkt. w 3dmarkach to zawsze coś. Przypominam ,że i dużo ważniejszych timingow nie można zmienić -więc póki co nie zawsze zmiana da pożądany rezultat.
  8. BezbronnyPL

    Geforce 6600 GT - AGP

    Timingi dobrane przez producenta są już z reguły tak dobrane ,że nie ma sensu przynajmniej ich zaostrzać-szybko może się okazać że spowoduje to utratę stabilności(szczególnie przy dłuższych sesjach wymagającą grą).A zysk wydajności -jezeli bedzie- to praktycznie niezauważalny.Czestotliwości w 6600GT GPU i VDDR są nieprzypadkowo dobrane,i widać jak przepustowość pamięci ma duży wpływ na tą konstrukcję(np.zwykły 6600 po OC vs standartowy 6600GT).Warto więc dążyć do tego by jednak uzyskać jak największą przepustowość.Tak jak napisałem dodatkowe Mhz dadzą na pewno większą wydajność-szczególnie przy korzystaniu z FSAA.Łatwo to sprawdzić uruchamiając chociażby 3dmarka z FSAA z podkręconymi (tylko)pamieciami a potem z niepodkręconymi-przy GPU@500(stock).Warto wydusić więc z tej 128bitowej szyny jak najwięcej.
  9. Ktoś się już chwali. Nvidia wypełnia lukę na rynku 16 potokowych kart na AGP. A oto link Klik
  10. BezbronnyPL

    Geforce 6600 GT - AGP

    Ennno panowie -kombinujecie. Małe FAQ. 1.Co to jest timingset? Jest to numer zestawu ,który odczytuje z BIOSu i z którego korzysta sterownik. W zależności od typu karty odczytane moga być różne zestawy tzn.i np.Leadtek 6600 GT (to tylko przykład) korzysta z zestawu pierwszego(timingset 1),ale już Galaxy 6600GT mogący dysponować/dysponujący innymi pamięciami może już korzystać z innego .To samo dotyczy innych typów kart -GF6800/7800 itd. Należy edytować tylko i wyłącznie ten -wykryty- zestaw i żadnego innego. 2.Jak sprawdzić z którego zestawu korzysta moja karta. Najprościej- Nibitor(2,6a lub nowszy)->file ->open BIOS->plik z BIOSEM->timings->Autoselect timings(pojawi się jeszcze okienko z wyborem karty). lub nibitor->read bios->select device->read into nibitor->timings->autoselect timings albo Riva Tuner->Graphics subsystem diagnostics report->NVIDIA graphics processor registers->odnajdujemy NV_PFB_TIMING 0(oraz 1 i 2). timingi podane są po prawej stronie NV_... W ten sposób mozna zweryfikować ,czy timingi ustawione(i zmienione) przez nibitora faktycznie są w użyciu. 3.Które Timingi edytować? Najbezpieczniej te w zakładce "Detailed timings",pozostale są jeszcze niewiadomą(jeszcze).Zaznaczyc trzeba ,że jest to zaledwie kilka z kilkudziesięciu opóżnień na których pracują pamieci DDR.Za pomocą hex edytora można poszukać wartości odpowiadającym pozostałym timingom-ale z uwagi na ich ilość i często identyczne wartości jest to trudne. 4.Skąd mam wiedzieć jak własciwie dobrać timingi? Najprościej : Spisać oznaczenia kości oraz ściągnąć ze strony producenta "Data Sheet".W dokumencie tym, można znależć b.dużo informacji ,część z nich jest bardziej przydatna np.inżynierom ,ale jest tam wiele innych jak np.pobór mocy przez moduł,jego temperatura max. pracy,napięcie,oraz to co nas najbardziej interesuje -TIMINGI. B.często specyfikacja dotyczy wielu kości o identycznym oznaczeniu a rózniących się jedynie czasem dostępu,dzięki temu, dysponujemy fabrycznymi(prawidłowymi) timingami dla kości o podobnych czasach dostępu,które to można zastosować,wpisując opóznienia dal lepszych pamieci(np.mamy 2.ns i zmieniamy @ 1,6ns). 5.Czy to jest bezpieczne? Jeżeli poluzowujemy timingi to w zasadzie możemy liczyc się z utrata wydajności,bardziej ryzkowne jest ich zaostrzanie,grozi bowiem niestabilnościa lub błedami w obrazie lub b.dużą stratą wydajności (klatkowanie). 6.Co mi to da? Trudno jednoaznacznie odpowiedzieć.Bywa tak,że po poluzowaniu timingów OC wzrasta w większym lub mniejszym stopniu,ale czasem skutkuje utratą wydajności lub też nie da się zauważyć żadnej róznicy.Analogicznie jak w przypadku zwykłych modułów DDR ,poluzowanie timingów może wplynąć na większe OC pamięci dzięki czemu można uzyskać wyższe FSB ,ale nie zawsze DDR-y zachowują się tak jak powinny i OC nie wzrasta.Generalnie zależy to od jakosci modułów,ich układu zasilania(pojemność kondensatorów),od producenta itd.itp.Bywa i tak ,że pomimo większej szybkości VDDR nie przeklada się to na np.wynik w 3dmarkach.Zyskuje się za to przepustowość,dzięki czemu można sobie pozwolic na wyższy tryb FSAA lub wogóle na FSAA.Nie zawsze szybsze pamięci z poluzowanymi timingami bedą szybsze od standartowych z agresywniejszymi.Ale przy szynie 128bit w wielu kartach każde kilkaset MB/s to zawsze coś.Każdy sam musi ocenic co mu bardziej odpowiada. To chyba wszystko-mam nadzieje że to mini FAQ komuś się przyda.
  11. BezbronnyPL

    Geforce 6600 GT - AGP

    Nie trzeba odwagi.Karty nie trzeba nawet flashować by sprawdzić timingi. Nibitor-->file->open BIOS->timings->autoselect timings->test timings->get timings->wpisujesz inne(lużniejsze)->set timings. I to wszystko.Sprawdzasz czy pamieci lepiej się kręcą,jeżeli testy zakończą się pomyślnie to można flashowac bios ze zmienionymi timingami(tzn.wgrywamy ponownie orginalny ale zmodowany bios). Należy zmieniać timingi podane w zakładce "Detailed Timings",ponieważ pozostałe jeszcze nie są "rozgryzione" i niewiadomo których parametrów(timingow) dotyczą.
  12. BezbronnyPL

    Geforce 6600 / Gt

    Dokładnie-można sprawdzić czy np.edytując BIOS w celu zwiększenia napięcia ,faktycznie uzyskało się dodatkowy woltaż.Dotyczy to edycji orginalnych BIOSów,ewentualnie po crossflashu,ale pod warunkiem że karty mają identyczne PCB ,lub oparte są na referencyjnym rozwiązaniu.W zasadzie to wszystko,po prostu taki monitoring (np.przejście z trybu 2D-na 3D )może przydać si e w razie problemów.Po Vmodach -wiadomo-tylko miernik.Pozdrawiam!
  13. BezbronnyPL

    Geforce 6600 / Gt

    @jarifari Co do układu zasilania GF6600/GT to oceniłem je ze...zdjęcia(stąd mosfety-zreszta elektronikiem nie jestem :D ),nie chciało mi się spisywac oznaczeń z tych układów(ile razy można wyjmować grafikę z kompa),ale kiedyś organoleptycznie(czyt.paluchem)sprawdziłem temperaturkę i o mało się nie oparzyłem. Co do wtopionych Mosfetów-widziałem coś takiego na GF6800,stało się to po tym ,jak kumpel zmienił chlodzenie na "Silencera",a ten przyczynił się do przegrzania i uszkodzenia tranzystora-prawdopodobnie ze względu na zakłócony obieg powietrza akurat w tym miejscu.Określenie wtopiony jest może zbyt obrazowe,ale PCB była upalona wokół tego elementu ,ktory sam był z kolei stopiony( obudowa).Zresztą Silencery mają niezbyt dobrą opinię wśród posiadaczy R.9800-ze wzgl. na masowy "pomór " radków z w/w przyczyn.Pozdro!
  14. BezbronnyPL

    Geforce 6600 / Gt

    Tutaj odpowiadałem na coś takiego-może cos pomozeKliknij mnie!
  15. BezbronnyPL

    Geforce 6600 / Gt

    Wszystko się zgadza -ale RT potrafi odczytać właściwe dla danego modelu napiecie VGPU.A ściślej mówiąc odpowiednio zinterpretować tzw.VID( Voltage IDentifier),lub jeszcze inaczej- na który VID ma wpływ sterownik-bo to sterownik zmienia napięcia korzystając z tabeli napięć wbudowanej w BIOS. Czasem można napotkać z tym problemy,zwłaszcza gdy producent zastował własne rozwiązania,a nie referencyjne. Jak odczytać więc napięcie GPU?Nalezy wybrać odpowedni tryb interpretacji VID. Riva Tuner->Hardware monitoring->Setup->Zaznaczyć core VID "ptaszkiem"->wykres Core VID->Setup->More->Autoselect(lub wybrac odpowiedni tryb). I wszystko.Może oprocz tego ,że 6600 (non GT)nie posiada tabeli napięć. @jarifari świetna robota-od dłuzszego czasu myśłałem nad jakimś kompendium vmodów(na rożne 6600) i ogólnie nad OC 6600.Ale wszystko rozbija sie o brak czasu(praca).Tak czy tak świetna robota-i może dzięki temu przestaną pojawiać się wciąz te same pytania(a może i nie...).Pozdrawiam! --------------------------------------------------------------------------------------------------------------------------------- I jeszcze jedno-po Vmodach(GPU/VRAM) warto zadbać o chłodzenie tranzystorów mocy(MOSFETów).Grzeją się niemiłosiernie,i przy słabszej cyrkulacji powietrza mogą się np.wtopić w PCB...a tego nikt by nie chciał.Także jakijś radiatorek-profilaktycznie -nie zaszkodzi.
  16. BezbronnyPL

    Geforce 6200

    O ile dobrze pamietam to krzyżowy kontroler pamieci(Crossbar Memory Controller) pojawił się po raz pierwszy w chipie NV2A dla konsoli Xbox,a następnie pojawił się na rynku PC pod postacią GF3 ,z którego wycięto przy okazji jeden vertex shader.Novum to, pozwalało odpowiednio dostarczać dane do bufora ramki,odpowiednio tzn, nie powodującc zapchania jednego z 2 kanałów co negatywnie odbiłoby się na przesyle tekstur i co za tym idzie wydajności. Podobnie jest dzisiaj- z tym że kontrolery są już 4 kanałowe(256 bit=4x64)lub nawet 8 w X1800. W zależności od konkretnego tytułu spadek wydajności może sięgac od kilunastu do kilkudziesięciu %.Po prostu szybki GPU jeżeli nie zostanie "nakarmiony" danymi nie bedzie w stanie renderowac obrazu.Można to sprawdzić spowalniając szybkoć VRAMU o połowę i zostawić podkrecony(lub nie) GPU,spadek wydajności bedzie natychmiast zauważalny.Np. w GF6200 ustawić 500/250 i zobaczyc co się stanie.
  17. BezbronnyPL

    Geforce 6600 / Gt

    Nic nowego-ten BIOS 6600 ULTRA to zwykły ,standartowy BIOS od 6600.Sparkle mają podwyższony voltaż na GPU i stąd crossflash na ten BIOS może polepszyć OC. A nazwa ULTRA bierze się stąd ,ten BIOS ten ma zmienione zegary na 500/700.Jest też wersja ze zmienionymi timingami(zresztą niezbyt dobrze dobranymi).Także zanim zaaplikuje się u siebie coś takiego,najpierw należałoby obniżyć troche taktowania w tym biosie i sprawdzac czy pójdzie na tych zegarach.Bo w innym przypadku może sie okazać ,że karta będzie sprawiać problemy.No chyba ,że na orginalnym bosie kreci się na 47x/700 to wtedy nie ma problemu-można flashowac.BIOS ten nie posiada tabeli napięć(tak jak w 99% innych w GF6600).
  18. BezbronnyPL

    GeForce 3 Ti, GeForce 4 Ti

    Kiedyś to odpalałem na GF3 (Gainward) pogonionym na 250/520(z 200/450) i w rozdzielczości 800x600 na medium +wszystkie (prawie) efekty,jak cienie,odbicia były wł.i mozna spokojnie grać ,zakładając ,że jest przyzwoity CPU i odpowiednia ilość RAMu .Doom 3 jest w OpenGL więc chociażby z uwagi na to nie jest żle.Odpaliłem to wtedy z ciekawości-żeby zobaczyc jak chodzi i FPS był akceptowalny.W timedemo było coś koło 28 FPS(800x600).
  19. GF4MX i do tego SE(jak widze cokolwiek SE to "włącza mi się" alarm ,niezależnie od tego jakiego sprzętu dotyczy). A tak serio,ta karta ma "aż" 2(słownie dwa)potoki renderujące,nie posiada żadnych Pixel Shaderów, Vertex shadery emulowane są przez sterownik,i do tego posiada 64bitową szyne danych. I teraz powiedz co da Ci Quadro?Bo ja twierdze ,że absolutnie nic,pomijając już to ,że możesz jeszcze spowolnić kartę modując ją. Co mogę poradzić?Poszukaj na allegro GF3Ti(200 lub 500),najlepiej firmy Gainward(Golden Sample Ti 450 lub Ti500).Nie powinny kosztować wiele ,a schrupią na śniadanie tego -i każdego innego-MXa.Na GF3Ti jeszcze pograsz i to nawet w Far Cry/Doom3 itp.choć bez szaleństw -ale o niebo lepiej niż na tym nieszczęsnym GF4. GF3-4 potoki po 2 TMU + 1 Vertex shader.Posiadałem ją jeszcze 2002 roku i miałem wynik 10100 tys pkt. w 3dmarku 2001 -a dziś ,w 2006 roku, jeszcze co poniektórzy się cieszą jak tyle osiągną (a na 4mx to troche trudne). Dobrym wyborem byłby też Radeon 8500-troche szybszy i nowocześniejszy od gf3ti-ale może byc droższy i trudniej osiągalny. .Myśle ,że to lepsze niż kombinowanie z tym g....nawet z ograniczonym budżetem -a możesz sprzedac to swoje cudo-i ten dżifors jest/może być osiągalny(cena ok.80zł-100zł nie jest zła). Zwróć też uwagę na GF4 Ti,bo sa szybsze od GF3 o ok 40-50% a też mają b.atrakcyjne ceny.
  20. BezbronnyPL

    Geforce 6600 / Gt

    No z tymi biosami faktycznie coś może być-bo kiedyś flashowli 6600 biosami Asusa i mieli niezłe wyniki.Pozaty Rev A4 nie kręci się tak jak A2.Chociaż twoj Ausik niezle poszedł-w zasadzie takie OC jest w zupelności wystarczające.
  21. BezbronnyPL

    Geforce 6600 / Gt

    Przeczytaj TĄ stronę uważnie i zastosuj to co pisałem (ustawienie w Riva Tuner).Jezeli nie pomoże to faktycznie może dotyczyć wysokiej temp.ale u mnie mam 80 stopni (max stres) i w niczym mi to nie przeszkadza.I sprawdż czy czsem karta nie zwalnia w 3D(RT-Hardware Monitoring).
  22. BezbronnyPL

    Geforce 6600 / Gt

    Ja używam orginalnego bios-u-tyle, że zmodyfikowałem mu timingi,uaktywniłem diode termiczną ,zmieniłem TV -OUT na system PAL(z NTSC) i ustawiłem zegary na 420/650.A mam zrobionego vmoda na GPU-1,45V- idzie tylko na 510 (mem 740)-ale mnie to w zupełności wystarcza.Jeszcze vmodzik na Vram i powinno być lepiej.Z tym 1,4 miałem 550 na GPU ale z racji problemów pozbyłem się tego,zresztą pisałem ,ze ten biosik to tak naprawdę nie wiadomo od jakiej jest karty,bo takie spotykałem na Gainwardzie,a w biosie można sobie zmienić Vendor ID i zrobic z tego np.MSI itp.więc chociazby z tego względu ,że nie wiem w 100% od ktorego producenta jest ten bios 1,4V,nie używam go. A w wer.GT napięcie GPU jest dokładnie 1,45V ,choć nie u wszystkich producentów tak byc musi.
  23. BezbronnyPL

    Geforce 6600 / Gt

    Nie no jasne-karcie nic nie będzie.Ale masz NF3-także już mnie to nie dziwi.
  24. Wiesz co?Pozbądź się tej MoBo.Miały one kłopoty z obsługą juz GF4MX oraz FX5200 ze względu na nieprawidłowe zasilanie z portu AGP.Co prawda wykosztowałeś się na kartę ,ale po wymianie płyty(ok.200zł)na NF2 powinieneś odczuć 10-15% wzrost wydajności,mogą też wzrosnąć wyniki OC procesora(zasilanie CPU z linii 12V-dodatkowy molex 4pin).Jakijś Abit NF-7S/AN7 lub coś od GB kosztuje teraz niewiele-więc warto zmienić płytę.
  25. BezbronnyPL

    Geforce 6600 / Gt

    Dziwna sprawa to co opisujesz,wyglada na to ,że odpala się u Ciebie mechanizm "Robust Channels"-w przypadku wystapienia jakijś problemów z gpu,może on(RCh) zrestartować GPU bądz zmniejszyć mu taktowania.Sczerze powiedziawszy nigdy osobiście nie zaobserwowałem tej sytuacji-ale nie jestes pierwszą osobą ,ktora to sygnalizuje. Za pomocą RT można sprobować temu zaradzić:RT->power User->NVIDIA->overclocking->enable performance level forcing(wartość 1/set to 1). Osobiście dla wygody takze zmodyfikowałem swoj bios ale ,to co masz ze swoją kartą to troche dziwne(a może nie). No jasne ,że NIC mu sie nie stanie ,6600GT to ok .45W "w stresie" więc Chief powinien dac spokojnie rade(no chyba ,że CPU też ciągnie z linii 12V ale i tak nie powinno być problemów-takie PSU mają odpowiednie zabezpieczenia przeciw przeciążeniowe).
×
×
  • Dodaj nową pozycję...