Skocz do zawartości

BezbronnyPL

Stały użytkownik
  • Postów

    754
  • Dołączył

  • Ostatnia wizyta

Treść opublikowana przez BezbronnyPL

  1. Myśle ,że najlepiej przeprowadzić testy SPECVIEVPERF->Download W linku który dałem wcześniej,zmodowany GF6600GE(400/800) uzyskiwał znacząco lepsze rezultaty w przeprowadzonych testach. Także powinieneś odczuć poprawę.Być może wtyczka MAXtreme lepiej współpracuje z nowszymi sterownikami(bądź takich wymaga).Po zastosowniu tej wtyczki-w/g dokumentacji wydajność może wzrosnąć do 80% ale tylko w niektórych przypadkach.Zresztą wtyczka ma dwie optymalizacje -szybkość i jakość(tak wynika z opisu) Wydaje mi się niemożliwe ,żeby nie było żadnego przyrostu,wiekszość osób po modzie zauważa znaczną poprawę i raczej trudno uznać to za autosugestię w przypadku gdy wyniki benchmarków równierz pokazują wzrost. Zresztą w linku wspomniano ,że można spróbować moda ze znacznie nowszymi sterownikami 6x.xx-ale z FX raczej to się nie udało- jakbyś przeszukal forum Guru 3D moze znalazłbyś bohatera ,który był na tyle cierpliwy by sprawdzić nowsze sterowniki. .Trzeba też zaznaczyć ,że FX-y ,to najbardziej nieudana seria kart Nvidii, twórca Rivy Tuner stwierdził ,że generalnie są kiepskie nawet jako Quadro, więc może faktycznie nie ma co oczekiwać cudów. Upewnij się czy wszystkie kroki przeprowadziłeś jak należy(szczegolnie wyczyszczenie pozostałości po starych sterownkach). I ściągnij Specvievperf 7/8-tym najlepiej porównać(GF Vs Quadro).
  2. Jaka jest różnica w wydajności pomiędzy orginalnym Quadro a zmodowanym GeForcem? W/g mnie-żadna.Nvidia w swoich materiałach bardzo stara się przekonać o różnicach pomiedzy GForceami a profesjonalnymi kartami i niby wszystko byłoby w porządku ,gdyby nie to ,że pomiędzy procesorem graficznym GF i Quadro nie ma żadnych różnic.Dzięki zdolnemu programiście(tworca Rivy Tuner) i błędowi w sterownikach,można odblokowac profesjonalne opcje.Błąd NV polegal na niezabezpieczeniu sterowników-oczywiście zostało to poprawione w ich następnych wersjach.Ale pomysl softmoda został podchwycony przez innych skuszonych darmową wydajnościa.I o ile Unwider początkowo sądził ,że softmod nowszych kart od GF4Ti jest niemożliwy-szybko zmienił zdanie.Kiedyś ,przez przypadek ,znalazłem na forum nV news dyskusję użytkowników GF6800 ,którym udała się modyfikacja na Quadro, z pracownikiem Nvidii.Zarzekał się ,że Quadro i GeForce to calkowicie odmienne konstrukcje,i za nic nie dawał się przekonać(jak zresztą kilku innych forumowiczów -przyklaskującym argumentom pana z NV),ale tak się szczęśliwie złożyło ,że w dyskusje wtrącił się sam Alexey Nicolaychuk i bardzo szybko przekonał speca z NV ,że się myli.Po wzajemnej wymianie korespondecji oddtrąbił ,to co wcześniej napisał(a nie przekonywaly go nawet wyniki benchmarków) i przyznal że faktycznie różnica to tylko jeden wpis w sterownikach . Dyskusja ta została usunięta ok.2 miesiące temu. Ale tu mówimy tylko o GPU.Tymczasem Quadro są wykonane z lepszej jakości komponentów,mają podwójny transmiter TDMS -zwykłe karty ,pomimo posiadania dwóch cyfrowych złączy DVI mają tylko jeden,dysponują większą ilością pamięci video(są nawet wer.z 1GB).Dodatkowo niektore profesjonalne karty wyposażane są w genlock,no i oczywiście mają wsparcie w specjalistycznych aplikacjach.Jak widać jednak czymś się odróżniają. Wracjąc do wydajności,może się zdarzyć i tak ,że GF@Quadro będzie szybszy od orginału.Dlaczego?Stacje robocze pracują często kilkanaście godzin na dobę pod pelnym obciążeniem przez kilka lat(do czasu wymiany na nowsza generację),z tego względu GPU w quadro mają obniżone taktowania ,by mogły sprostać temu zadaniu.A GF?wręcz odwrotnie-zawsze można je podkręcić i nikt się nie przejmuje skróconą żywotnością. Testy w np.SPECViewperf / SPECapc ,powinny pokazać jaka jest różnica pomiędzy zmodownym i niezmodowanym FX-em.Przewaga orginału(quadro FX3000) polega na możliwości zastosowania nowszych sterowników ,oraz posiadania większej pamięci(256MB).Ale mimo tego soft quadro powinien być od kilkunastu do kilkuset % wydajniejszy od GF.Link->GF6600GE vs soft Quadro FX540 Tak czy siak kilka/kilkanaście tysiecy zl. może zostać w kieszeni.:) Pozdrawiam.
  3. Heh-miałem na myśli te wymienione na górze. Ale gwoli scislości to fakt-już nie wszystkie.A miektore z nowszych już i tak ledwo zipią.Mimo wszystko jeżeli ktoś tą kartę tanio kupił,lub jeszcze ją ma ,to może sobie pograć i to niekoniecznie w 640x480 na low w wiele stosunkowo nowych gier.Nawet R.8500 czy GF3Ti w przeciwieństwie do bubli w rodzaju R.9200/GF4MX mogą sobie poradzić.pozdro:)
  4. Widze ,że parę osób odpowiedzialo jak należy. GF4 Ti 4xxx to karty DX.8.1,i wszystkie gry będą na nich chodzić.Większość efektów z dx9 da się uzyskać nawet na DX.8.1-niestety często jest tak ,że programistom już się nie chce i część z nich jest dostępnych tylko dla kart dx9.Niektóre z efektów na Pixel Shader V.1.x wyglądają niewiele gorzej niż na Pixel Shader V.2-róznice są często trudno zauważalne(choć w nowszych grach są już większe ). Również GF3Ti i R.8500 w miarę się sprawdzi -oczywiście tu będzie gorzej(wolniej) Taki np.Far Cry po odpowiednim skonfigurowaniu(np.wlączenie Bumpmappingu-ale bez znaczącego zwiększania ilości żródeł światla,co odbiłoby się na wydajności),wygląda w DX.8.1 porównywalnie z FEAR na DX9(FEAR na DX8 wygląda z kolei tragicznie).Kto nie wierzy niech sprawdzi co potrafi silnik Cry Tek-wiele efektów jest trudno dostrzegalnych na pierwszy rzut oka. Także inne gry wymagające pixel i Vertex shaderów bedą działać. Oczywiście dumni wlasciciele GF4 MXmoga sobie pomarzyć o tych efektach-i nic tu nie pomoże 3D Analyzer i inne sztuczki.
  5. Z tego co piszesz -mod się udał.Możesz jeszcze sprawdzić w zakładkach OpenGL,powinny byc odblokowane dodatkowe opcje jak antyaliasing linii itp. Żeby potwierdzić ewentualny wzrost wydajności,musiałbyś przeprowadzić szereg benchmarków,inaczej może być ciężko określić zysk wydajności(o ile taki nastąpił).O ile się nie mylę szczgólnie w vievportach można liczyć na znaczace przyspieszenie(lub generalnie kiedy wyświetlany obraz jest w trybie wire frame -na GeF w tym trybie wyłączona jest akceleracja).Ale ekspertem od 3D studnio nie jestem-więc juz sam musisz ocenić efekty.
  6. Nie będę opisywał-podam linka. Dodam tylko ,że być może warto przemyślec zakup jakiejś karty NV40(6800.LE/GT/U).Łatwiej je przerobić-wystarczy tylko NVstrap driver,jedynie trzeba znależć sterowniki ,które dzialają poprawnie(bodajże większość z 6x.xx i niektóre 7x.xx).Z FX jest trudniej-potrzeba spatchowania sterów(wer.45.23)-no i trzeba sie pogodzić ze ich starszymi wersjami,z drugiej strony FX to nienowa karta. Jednak jako Quadro powinna jeszcze calkiem nieżle dawać radę. Ten link wszystko wyjaśni->quadro mod Z BIOSEM nie ma co kombinować-czasem jest tak ,że nawet wgrywając BIOS od quadro do GF, nie uzyskiwano niczego-nawet w takich kartach ,w których rdzeń oznaczony był jako quadro(zdarzały się takie FX-y). Oczywiście będzie potrzebny programik Riva Tuner(aktualnie 15.8)ale myślę ,że o tym wiesz.
  7. Dziwne jest to,że zmienia się napięcie GPU poniżej 30st.Wg.mnie to jakijś BUG lub faktycznie sterownik przewiduje zmiane napięcia dla temp. poniżej 30 st.C Riva Tuner->Hardware monitoring->Setup->Zaznacz core VID "ptaszkiem"->Setup->More->Autoselect(lub wybierz odpowiedni tryb interpretacji VID).W ten sposób dowiesz się na jakie napięcie ustawia sterownik dla GPU.Powinien zmieniać je po przejściu w tryb 3D. Odczyt RAW ,który teraz masz ustawiony niczego praktycznego nie pokazuje. Wg mnie BUG.Podobną przypadłośc miały GF7800-ale nie śledzilem tematu ,ale sądze, że zostalo to poprawione. @sideband he he-poniżej zera.tak jak wsppomnialem -nie śledzilem tematu.ale powyzszy problem może wskazywać na podobny bug.
  8. Miałem podobny problem-też niby z GF6800.Jak się okazało,karta była sprawna-pomimo ,że BSOD i sygnatura błedu wskazywała na kartę grafiki. Po pierwsze sprawdź pamięć RAM,njlepiej za pomocą "Memtest86+"("OCZ Memory test" to to samo,"Memtest" praktycznie też),jest w wersji :bootowalna płyta,dyskietka. Sprawdź czy przejdzie przynajmniej kilkukrotnie powyższy test. Gdy przejdzie zainteresuj się CPU-kilku godzinny(8h-12)test za pomocą Prime95 lub StressPrime 2004,da Ci odpowiedź czy czasem pod obciążeniem nie generuje błędów. U mnie okazalo się (po gruntownym sprawdzeniu SP2004 potem memtestem),że pamięć sypie błędami. Była sprawna-,tylko jakimś cudem ,w BIOSie ,przestawiło sie napięcie VDIMM z 2,7V na 2,5V,skutek byl własnie taki jak u Ciebie. Choć w sytuacji gdy wcześniej nie było takich błędów,a nastąpiły po wymianie karty grafiki na wspomnianego GF6800,skłaniałbym jednak się ku wadzie GF. Nie wyobrażam sobie poddawać karty underclockingowi po to ,by sprawnie działała(ma działać po wyjęciu z pudelka, bez spluwania przez lewe ramię,sypania solą i tym podobnym zabiegom). Jedno z praw Murphiego mówi:Wada ukryta ,nigdy nie pozostanie ukrytą.
  9. BezbronnyPL

    Geforce 6600 / Gt

    OK.Tylko czy są na pewno z miedzi?Bo wielokrotnie spotykałem się z pokolorowanymi(anodowanymi)aluminiowymi radiatorkami.Zresztą-widziałem wcześniej tą kartę ale zupelnie nie zwrociłem na to uwagi-masz mnie! Ale odkąd pamiętam w High-endowych kartach graficznych,gdzie pamięci grzeją się niemiłosiernie jakoś nie stosują "lepszych"miedzianych-a przy tak wysokich cenach kart, taki szczegół powinien być uwzględniony i nie wplynąłby znacząco na cenę i kieszeń entuzjasty(ktory z reguły lubi wszystko najlepsze). Co do miedzi i pasywnych rozwiązań-zgadza się w 100% są takie. Ale tak naprawdę powstają(w/g mnie) tylko z marketingowych względów.Tzn.łatwiej jest sprzedać,wer.miedzianą na zasadzie "miedż jest lepsza od alu" i nic wiecej. W praktyce często okazuje się ,że wer.Cu wcale nie chłodzą zauważalnie lepiej,ale nie muszą(!)wystarczy ,że będą się lepiej sprzedawać(cały czas mówię o rozwiązaniach pasywnych). Podobnie sytuacja ma się na rynku zasilaczy-po co przekonywać "nasz 300W zasilacz jest dużo lepszy od waszego",lepiej powiedzieć "nasz 350W jest lepszy od waszego 300W".Z marketingowego punktu widzenia 300W zasilacz jest gorszy,a przecież wcale tak byc nie musi(o tym można przekonać się przeglądając każde forum). Najlepsze obecnie konstrukcje chłodzące bazują na miedzianym rdzeniu+ ciepłowody i mają aluminiowe finy. Jednym z powodów niezastosowania Cu jest jej koszt i waga -bezdyskusyjnie tak wlaśnie jest.Ale nie znaczy to ,że zastosowanie Cu w calej konstrukcji byłoby lepszym rozwiązaniem. Jako przykład mogą poslużyc wiatraki Zalman VF700 i Pentagram XC-80(choc to rozwiązania aktywne).Ich wersje AlCu ,w przypadku gdy wiatrak działa na wolnych obrotach(ok.1400obr/min) mają bardzo zbliżoną do wydajność do wer.Cu,dopiero gdy wiatrak jest na pełnej prędkości(większy nawiew) ,swoją przewagę zaznacza miedziana wersja. Jakijś czas temu(dawno) spowolniłem u siebie CPU(Barton)do 1000Mhz i obniżając mu Vcore,po to by sprawdzić czy radiator(Whisper rock IV)wystarczy do pasywnego chłodzenia .I wystarczył.Razem z Zalman ZM-80 na grafice stanowił niezły cichy duet.Niestety po wymianie na Thermaltake CoolPipe 101(0,5kg miedzi+4 heatpipe)-ktory mam do dziś- eksperyment z underclockingiem musiałem zakończyć.Gdyż powoli ,acz sukcesywnie rosła temp.CPU w ostateczności powodując wylaczenie kompa.Oczywiście mógłbym wyłączyć w biosie to zabezpieczenie lub ustawić wyższy próg temp. przy którym zadziała,ale średnio mi się to podobało. Podsumowując-jest to moje zdanie i nie każdy musi się z nim zgadzać ,ale jestem otwarty na sugestie. A temat faktycznie był wałkowany wielokrotnie.... Dzieki czmu FrIkO wie już co zrobić... @grzesiu-no tak czyli masz mnie.A kompa trzeba czyścić-małe wiatraki na kartach graficznych potrafią szybko sie "zbuntować'gdy dostana trochę kurzu.
  10. BezbronnyPL

    Geforce 6600 / Gt

    To zależy jak na to patrzeć.Miedź do pasywnego chłodzenia wogóle się nie nadaje,bardzo szybko odbiera ciepło, ale przez to ,że ma dużą pojemność cieplną gorzej je oddaje.Inaczej mówiąc po przyklejeniu na pamięć takiego radiatora,praktycznie od razu się nagrzeje, ale jednocześnie nie będzie w stanie efektywnie oddać ciepła do otoczenia,efekt będzie taki ,że pamięć praktycznie w ogóle nie będzie chłodzona,a w skrajnym wypadku może ulec uszkodzeniu.Miedź można stosować tylko w przypadku obecności jakiegoś nawiewu(odpowiednio silnego). Co innego Alu, gorzej pobiera ciepło ale szybko je wypromieniowuje do otoczenia,bez stosowania nawiewu itp. Idealne rozwiązanie to Cu+Al. Zresztą ,czy kiedykolwiek widziałeś na karcie graficznej fabrycznie założone miedziane radiatory? Bo ja nigdy się z tym nie spotkałem.Zawsze były Al.Po prostu ten metal idealnie nadaje się do pasywnego chłodzenia. Zresztą podobnie z chłodzeniem CPU/GPU,wszystkie pasywne rozwiązania oparte są o aluminowe radiatory-najwyżej rdzeń jest miedziany+ ciepłowody(Heatpipe). A to ,że wer.Cu są droższe od Al to chyba oczywiste-miedź jest po prostu droższa.Sam mam Al(z 0,5mm warstwą miedzi).
  11. BezbronnyPL

    Geforce 6600 / Gt

    No widzisz-czyli w zasadzie już znasz odpowiedź. Zalman VF700 AlCu,pentagram Xc80 AlCu.Bedą pasować.Zalman-droższy /wyższa jakość.Pent tańszy -trudniejszy montaż,niższa jakość,ta sama wydajność co Zalman.Oba pasują na większość kart.
  12. BezbronnyPL

    Geforce 6600 / Gt

    Rozumiem ,że odinstalowałeś stare sterowniki,usunąłeś pozostałości Driver Cleanerem(w trybie awaryjnym)? Napięcie AGP nie ma nic do rzeczy-zostaw je na default 1.5(1.55). Karte podłącz do osobnej linii tzn.bez innych urządzeń dodatkowych(HDD itp). Być może potrzebna będzie aktualizacja BIOSu od Mobo. Ewentualnie odkręć CPU(jeśli jest podkręcony),lub załaduj domyśłne ustawienia w BIOSie"Load Optimized defaults" lub coś w podobie. W ostateczności sprawdź karte na innym kompie.Generalnie malo ludzi ma z nimi problemy -wbrew pozorom.
  13. BezbronnyPL

    Geforce 6600 / Gt

    Może byś tak łaskawie SAM sprawdził na stronie producenta? Poza tym-pytanie umieszczone nie w tym dziale.
  14. Po pierwsze wielkie dzięki dla Kyle'a.Resampler to jest to czego szukałem,mój audigy ma teraz faktycznie bardziej miękkie i ogólnie lepsze brzmienie .A już miałem sprzedawać karte... Ale do rzeczy. Na stronie BBE sound,znalazlem kilka ciekawych informacji,mają niezłe rozwiązania.Stronkę BBE odwiedziłem,z uwagi na to ,że ich technologię -kilka patentów-wykorzystują oddtwarzacze MP3 f-my iAudio tzn.Mach3bass, BBE.Do czego zmierzam,część z tych technologii jest dostępnych dla profesjonalistów(studia nagraniowe),w postaci wtyczek lub sprzetowych rozwiązań. Ale moją uwagę zwróciły wtyczki,niektore z nich kosztują od.100$ wzwyż-zresztą mniejsza o to. W tej dyskusji, wynika ,że za pomocą odpowiednich narzędzi (VB-FXX4)directX można zmusić te wtyczki do współpracy z winampem. Watek odkopałem, stwierdziłem ,że przynajmniej dla co poniektorych to może byc interesujące. Ja dopiero zabieram się za poszukiwania i ewentualnie do sprawdzenia jak to działa i czy można spodziewać się jakijś ciekawych efektów. A-i tu coś jest(pluginy-vst,całkiem całkiem-ale chyba nie audiofilskie). I tutaj też.
  15. BezbronnyPL

    Geforce 6600 / Gt

    Jeżeli chodzi o kompendium,to zajęłoby kilka stron.Używam RT od kilku lat i z prostego programiku przekształcił się w kombajn.Także napisanie instrukcji ,to żmudne zajęcie,zwłaszcza ,że przy wielu opcjach twórca Rivy sam umieszcza stosowne objaśnienia,więc w/g nie ma sensu tego powielać. Co do wykrywania różnych częstotliwości-sterownik za każdym razem może wykryć inne,nieznacznie się różniące częstotliwości i nie należy tego wiązać z innymi czynnikami.Wykrycie optymalnych polega na automatycznym podnoszeniu zegarów co kilka/kilkanaście mhz,przeprowadzenie testu, i tak dalej aż do znalezienia stabilnych wartości.Te częstotliwości należy traktowac tylko jako ogólną wskazówkę jak podkręca się karta.
  16. BezbronnyPL

    Geforce 6600 / Gt

    I tak trzeba będzie zrobić.To bedzie najlepsze wyjście.Bo to zaczyna byc irytujące. Przy pomocy kilku osob można takie FAQ zmajstrować.Tylko teraz mam czas ale jutro może się to zmienić.tak czy inaczej trzeba cos z tym zrobic.Masz w 100% racje.
  17. BezbronnyPL

    Geforce 6600 GT - AGP

    Wiem ,że wiecie-po prostu zauważylem drobną nieścisłość,dlatego odpowiedzialem.Są już nowe stery v83.40 WHQL-link w topicu 6800GS.Własnie zasysam w celu sprawdzenia.Sprawdze jeszcze "relase notes".Pozdrawiam. "Sterowniki XG mają zazwyczaj LOD ustawione na -0,3, więc jeśli komuś mało pointów to może sobie kilka dorzucić"-chodziło mi o to,że z tego zdania wynika, że ujemny LOD w tych sterach powoduje wzrost wydajności w 3dmarkach.Zapewne chodziło Ci ogólnie o wzrost wydajności a nie o związek z ujemnym LOD jako taki. Nie czepiam sie :),tylko zwrociłem na to uwage,bo pozniej jakijś małolat to przeczyta i będzie może na innych forach rozgłaszał ,czego to on się nie dowiedział na Tweaku itp..
  18. BezbronnyPL

    Geforce 6600 GT - AGP

    Ujemny LOD daje wyrażniejszy/ładniejszy obraz ale bardziej postrzępiony(aliasing).Dodatni wplywa na wynik w markach,poziom mip-map jest po prostu mniej szczegółowy.Ale do gier, to albo standartowy LOD albo ujemny(1,5 to akurat).
  19. BezbronnyPL

    Geforce 6600 / Gt

    @jarifari Ten programik to...Riva Tuner. Krótki config RT: Wyświetlanie FPS w czasie gry. RT->Customize->Hardware Monitoring->Setup->zaznaczamy "ptaszkiem" Framrate->Setup->Show framrate in on-screen display. Żeby FPS był widoczny musi być uruchomiony Riva Tuner Statiscics Server. jest w folderze Riva Tuner\Tools\RivaTunerStatisciscServer.exe Warto umiescić skrót na pulpicie.(i uruchamiać razem z RT) W przeciwieństwie do Frapsa RT nie wpływa na FPS w grach. Wyświetlanie temperatury na ekranie w czasie gry. RT->Customize->Hardware Monitoring->Setup->zaznaczamy Core Temperature->Setup->show temp in on-screen display. Można dodatkowo zaznaczyć Show in tray icon-temperatura w trayu,nie trzeba uruchamiać wykresów na zakładce hardware monitoring by spojrzeć na temp w "windzie". Wyświetlanie zajętości pamięci Video j.w. tylko zazaczmy Video Memory Usage->show... Żeby nie zaśmiecać sobie Traya systemowego,warto połączyc ikony RTStatiscics Server z ikoną Rivy. RT->Power User->Riva Tuner 2.0 15.8(+)->User Interface->Disable Multiple Tray Icon Mode.Zaznaczyć żaróweczką(żółtą) i wpisać wartość 1. Przyda się pewnie innym -więc umieściłem instrukcję.Pozdrawiam
  20. BezbronnyPL

    Geforce 6600 / Gt

    No kurka-to żeś podal nowość-właśnie w tym cały bajer ,można potestować timingi,sprawdzić czy w ogóle coś dają,i EWENTUALNIE wpisać je na stale do BIOSU i dopiero po tym zflashować karte z wyedytowanym BIOSEM.Na gorze masz FAQ-widze ,że musze je uzupełnic... @jarifari THX-Co do FAQ-musialem juz coś napisać(akurat w wątku 6600GT)bo ciągle te same pytania potrafią zaśmiecic każdy topic,jak ktoś rzeczywiście będzie czegoś chcial się dowiedzieć to przebicie się przez kilkadziesiąt stron to mordęga.A z takiego coś jak na gorze może przynajmniej spowoduje ,że mniej będzie domysłów,mniej pytań itp. Poderzjewam ,że te wszystkie mody itp.kiedyś trzeba bedzie skompilować do jakiejś jednej lekkostrawnej wersji ,w której będzie wszystko -lub prawie-co zawarte jest na tych stu pare stronach. Zaraz napisze co zrobić by uzyskać ,to co na tym screenie.(temp,FPS,pamięć)
  21. Niczego nowego mi nie powiedziałeś.Ale jeżeli kupie Mobo z PCI-E ,to nie po to by mieć karte na AGP.Dla mnie to przejazd w jedną stronę,a Asrock budzi moje mieszane uczucia,choć zdaje sobie sprawe ,że nie jest to zła plyta.
  22. Bo żle patrzysz-Golden Sample to symbol na pudelku. :D (lub część nazwy karty).W windzie bedziesz miał Ti200 tylko zegary będzie miał wyższe np.220/480 lub 200/450.Pwinien spokojnie chodzić na ~250GPU i 500-560 VRAM.Jest przyklejony topic o tych kartach.
  23. Ja pożegnalem się z Chieftec HPC-360-302(made by Sirtec),odszedł sam, sygnalizując to efektownym wybuchem,poszedł dym iskry i po nim.Akurat zrobiłem Vmoda GPU na GF6600 i troche się zdziwiłem ,że przy takim niewielkim obciążeniu(+ ok.10W więcej w stosunku do defaultowego V GPU)odmówił współpracy.Oddany na gware-zginął w serwisie -dostałem/wybrałem nowego Szefa GPS350W by Delta.
  24. BezbronnyPL

    Geforce 6600 / Gt

    Wkleiłem to z 6600GT-tu też sie przyda- i dopisze jeszcze coś pożniej. Małe FAQ. 1.Co to jest timingset? Jest to numer zestawu ,który odczytuje z BIOSu i z którego korzysta sterownik. W zależności od typu karty odczytane moga być różne zestawy tzn.i np.Leadtek 6600 GT (to tylko przykład) korzysta z zestawu pierwszego(timingset 1),ale już Galaxy 6600GT mogący dysponować/dysponujący innymi pamięciami może już korzystać z innego .To samo dotyczy innych typów kart -GF6800/7800 itd. Należy edytować tylko i wyłącznie ten -wykryty- zestaw i żadnego innego. Nibitor-->file->open BIOS->timings->autoselect timings->test timings->get timings->wpisać inne(lużniejsze)->set timings. 2.Jak sprawdzić z którego zestawu korzysta moja karta. Najprościej- Nibitor(2,6a lub nowszy)->file ->open BIOS->plik z BIOSEM->timings->Autoselect timings(pojawi się jeszcze okienko z wyborem karty). lub nibitor->read bios->select device->read into nibitor->timings->autoselect timings albo Riva Tuner->Graphics subsystem diagnostics report->NVIDIA graphics processor registers->odnajdujemy NV_PFB_TIMING 0(oraz 1 i 2). timingi podane są po prawej stronie NV_... W ten sposób mozna zweryfikować ,czy timingi ustawione(i zmienione) przez nibitora faktycznie są w użyciu. 3.Które Timingi edytować? Najbezpieczniej te w zakładce "Detailed timings",pozostale są jeszcze niewiadomą(jeszcze).Zaznaczyc trzeba ,że jest to zaledwie kilka z kilkudziesięciu opóżnień na których pracują pamieci DDR.Za pomocą hex edytora można poszukać wartości odpowiadającym pozostałym timingom-ale z uwagi na ich ilość i często identyczne wartości jest to trudne. 4.Skąd mam wiedzieć jak własciwie dobrać timingi? Najprościej : Spisać oznaczenia kości oraz ściągnąć ze strony producenta "Data Sheet".W dokumencie tym, można znależć b.dużo informacji ,część z nich jest bardziej przydatna np.inżynierom ,ale jest tam wiele innych jak np.pobór mocy przez moduł,jego temperatura max. pracy,napięcie,oraz to co nas najbardziej interesuje -TIMINGI. B.często specyfikacja dotyczy wielu kości o identycznym oznaczeniu a rózniących się jedynie czasem dostępu,dzięki temu, dysponujemy fabrycznymi(prawidłowymi) timingami dla kości o podobnych czasach dostępu,które to można zastosować,wpisując opóznienia dal lepszych pamieci(np.mamy 2.ns i zmieniamy @ 1,6ns). 5.Czy to jest bezpieczne? Jeżeli poluzowujemy timingi to w zasadzie możemy liczyc się z utrata wydajności,bardziej ryzkowne jest ich zaostrzanie,grozi bowiem niestabilnościa lub błedami w obrazie lub b.dużą stratą wydajności (klatkowanie). 6.Co mi to da? Trudno jednoaznacznie odpowiedzieć.Bywa tak,że po poluzowaniu timingów OC wzrasta w większym lub mniejszym stopniu,ale czasem skutkuje utratą wydajności lub też nie da się zauważyć żadnej róznicy.Analogicznie jak w przypadku zwykłych modułów DDR ,poluzowanie timingów może wplynąć na większe OC pamięci dzięki czemu można uzyskać wyższe FSB ,ale nie zawsze DDR-y zachowują się tak jak powinny i OC nie wzrasta.Generalnie zależy to od jakosci modułów,ich układu zasilania(pojemność kondensatorów),od producenta itd.itp.Bywa i tak ,że pomimo większej szybkości VDDR nie przeklada się to na np.wynik w 3dmarkach.Zyskuje się za to przepustowość,dzięki czemu można sobie pozwolic na wyższy tryb FSAA lub wogóle na FSAA.Nie zawsze szybsze pamięci z poluzowanymi timingami bedą szybsze od standartowych z agresywniejszymi.Ale przy szynie 128bit w wielu kartach każde kilkaset MB/s to zawsze coś.Każdy sam musi ocenic co mu bardziej odpowiada. To chyba wszystko-mam nadzieje że to mini FAQ komuś się przyda.
  25. BezbronnyPL

    Geforce 6600 / Gt

    W nibitorze zmiana na 1,5V nic nie da.Jestem w 95% przekonany, że zmiana na BIOS 1,5V praktycznie nie zwiększy podkręcalności. Ja mam w tej chwili 1,46V-temperatury Idle(windows) 51 ,stress 79,i jakoś tym sie nie przejmuje,wszystko śmiga.Nic nie zwalnia,nie ma klatkowania nic sie nie dzieje.Dołączam obrazek-będzie widac temperaturke w czasie gry.
×
×
  • Dodaj nową pozycję...