-
Postów
754 -
Dołączył
-
Ostatnia wizyta
Treść opublikowana przez BezbronnyPL
-
Co do Galaxy z Zalmanem,uważam że jest to lepszy wybór niz np.Leadtek.Chlodzenie Leadteku 6600(GT),jest co prawda dość ciche, ale kiepskiej jakości wiatrak ,szybko staje się głośny jak dostanie trochę kurzu,nasmarowanie go, czy tym podobne zabawy w zasadzie nic nie dają. Zalman co prawda jest aluminiowy,ale jest to bądż co bądź ZALMAN czyli wysoka jakość,powierzchnia oddawania ciepła jest większa niż typowych wiatraków.Jedynie GB ze swoim SilentPipe jest konkurencją dla tego Galaxy,ale cena GB odstrasza-chyba ,że komuś bardzo zależy na ciszy. Tego Zalmana można spowolnić modyfikując bios(lub za pomocą RT),także będzie b.cichy. A Galaxy?To dobra firma,ma kilka ciekawych konstrukcji -np.w niektórych wer.GT podwójny BIOS,podwójne złącze DVI(rzadkość w tej klasie kart).Przyglądając się PCB widzę nawet ,że stosuje więcej wyższej jakości kondensatorów. Ta firma jest odpowednikiem tego czym parę lat temu był Ganiward-czyli fabrycznie podkręcone wersje,w dobrej cenie,czesto niższej niż karty innych producentów.Teraz Gainward,to drogie i przeciętne karty. Nigdy nie byłem zwolennikiem żadnej firmy,miałem Gainwarda,Msi,Prolinka,GB,Sparkla(kolejność przypadkowa).Wybieram to co jest lepsze lub ma lepszy stosunek cena /wydajność.Jedynie unikać trzeba wynalazków o których już była mowa. A Leadtek ma wpadki z filtrami i czesto obraz na monitorze ma kiepską jakość(słaba ostrość na monitorach podłączanych przez D-SUB),także pomimo ogolnie wysokiej jakości wykonania i niezłej ceny także ma/może mieć wady .
-
MUSISZ MIEĆ WERSJĘ 15.8 Rivy Tuner-wcześniejsza nie posiada pluginu NVThermalDiode. To nie jest żaden TRIK tylko zwykła wtyczka ktora działa na KAŻDEJ karcie 6600(GT),ponieważ KAŻDY GF6600 ma diode termiczną-jeżeli nie działa to na pewno coś zle robisz.Oczywiście w hardware monitoring trzeba zaznaczyc "ptaszkiem" core temperature ,żeby w ogóle był wykres temperatury na tej zakładce.Zaznacz też na zakładce "hard...monitoring" opcje "enable background monitoring". Można też wymusić pojawienie się temperatury w trayu trzeba tylko zaznaczyc opowiednią opcję ,analogicznie jak w moim wcześniejszym opisie.Gdy zaznaczona jest "show cortetemp in on screen display" temperatura będzie widoczna tylko w czasie gry(no i na wykresach).Z Riva tuner mozna robić wiele cudów-nawet odczytywać temp.CPU,systemu itp.
-
To normalne, że ekran na chwilę robi się ciemny.Prawdopodobnie zaznaczyłeś opcję "apply overclocking at windows sturtup" na zakładce "driver level overclocking"(dolna zakładka)i ustawienie na default nic nie da.Dzieje się tak dlatego ,ponieważ sterownik przeładowywuje się z nowymi ustawieniami-stąd to chwilowe "zgaszenie".Jeśli nie odznaczysz tej opcji, tak bedzie się działo.Riva Tuner nie ma tu nic do rzeczy,to samo bedzie się dziać jak zastosujesz Coolbits w rejestrze i bedziesz podkrecał w zakładkach sterownika. A co do znaczków "!" w RT:CZYTAJ OPISY ->prawy myszy-What's this"->czytasz->już wiesz(?) i... nie zadajesz lamerskich pytań. Odpowiedzialem bo zlożyłeś takie ładne zyczenia....a ja @x,>,x# jestem chory i leże w łozku i %3#d@3 nici z sylwestra
-
Po pierwsze :przerabianie GFMX4xxx na Quadro to BEZSENS,przyrostu wydajności w grach to nie da,a moze wręcz spowolnić kartę. Po drugie: ta karta jest w ogóle kiepska więc raczej lepiej ją podkręcic niż kombinować z modami. Po trzecie: trzeba użuć odpowiednich sterowników -nowe sterowniki są zabezpieczone przed modyfikacją i nie da się ich spatchowac za pomoca RT. Po czwarte: zmiana Device ID za pomocą rivy niczego nie zmienia oprocz NAZWY karty-wszystkie dodatkowe opcje w zakładkach (OpenGL) są zablokowane. Wbrew pozorom przerobienie karty nie jest takie proste-przerabiałem kilka modeli(różnych ale akurat nie MX z powodow jakie podałem wyżej) i wiem o czym mówię.
-
Ja tego nie sprawdze- mam Leadteka.Teoretycznie moznaby zamalować go nieznacznie ołówkiem i sprawdzic napiecie/podatność na podkręcanie.Ale to pod warunkiem ze PCB Giabyte nie rózni się od referencyjnej plytki NV(takiej jak w Leadteku).Przykładowo Asus ma zupelnie inną płytke drukowaną-ale tam to widac na pierwszy rzut oka.Także trzeba uważać.
-
Riva Tuner(15.8)->Hardware monitoring->Setup ->Plugins->zaznaczamy NVThermalDiode.dll Nie trzeba modyfikować Biosu by uzyskać odczyt z diody termicznej. Mozna też ustawić wyświetlanie temperatury na ekranie RT->Hardware monitoring->prawy myszy na wykresie Core Temperature->setup->show core temp. in on screen display. Analogicznie można postapić z wtyczką Framrate(zamiast frapsa-ktory czasem obniza wydajność),oraz z użyciem pamięci (video RAM). Aby działała wtyczka Framrate musi byc uruchomiony RT Statistics Server(jest w folderze Rivy). Wtyczka ta jest dostępna tylko w wer.15.8 Riva Tuner(jakimś cudem wcieło cyfre 8 w tym poscie-wiec poprawiam)
-
Timingset ?Najpierw musisz wiedzioec z ktorego zestawu korzysta karta ,można to bardzo łatwo sprawdzić za pomocą NiBitora 2.5/2,6.File->open bios->otwierasz bios ->timings->autoselect timings.wtedy program wykryje zestaw z ktorego korzysta sterownik(np.Timingset 1/2/3/4/5/6/7).Edytować nalezy tylko i wyłacznie zestaw który zostanie wykryty-innych nie ma sensu.A jakie wpisać?Najlepiej spisz oznaczenie pamieci-zobaczymy czy w ogole da się coś zrobic. Jestem chory więc teoretycznie mam troche czasu-teoretycznie. Tak w ogóle To jest/był topic dla 6600 z połaczenia z GT wyszedł tylko zamęt-pytaja goście o mody i rózne takie,a później wychodzi ,że jeden ma wer.GT inny że non GT ale PCI-E i dlatego ciągle jest zamieszanie.
-
Timingi 2,8 czy nawet 2,5 można zastosować zastosować bez vmoda,one są tylko lużniejsze i nic poza tym.Ale z tego co zauważyłem ich zastosowanie przynajmniej u mnie nic nie daje(740 i ani troche więcej).Pozostaje poczekać na rozpracowanie wszystkich timingów,bo poki co mozna edytować tylko niektóre.Jak bedzie mozna zmienić parametr np.CL to juz bedzie dobrze- i prawie na pewno bedzie mozna zegary pamieci jeszcze podciągnąć. Słabe podkręcanie moze tez wynikać ze słabej konstrukcji układu zasilania G-DDR(np.zbyt małej pojemności kondensatorów).
-
No niestety,nie jesteś pierwszą osobą która zgłasza ,ze Vmod niewiele daje.Na zagranicznych forach pełno jest osób ,które o tym piszą tzn.podniesienie napiecia praktycznie nic nie daje albo uzyskują marne 20Mhz wiecej na rdzeniu.Prwdopodobnie jest to wina Rev.A4.Co prawda na A4 na 100% znajdą się świetnie podkręcające się GPU,ale tu już trzeba mieć szczęscie-albo poprosić w sklepie o wyselekcjonowanie takiego egzemplarza.
-
Nie -karty PCI-E mają inne PCB,ale mozna spróbować tego moda-Inno3d Co prawda jest do karty innej firmy,ale dotyczy najprawdopodobniej wszystkich 6600GT bazujących na referencyjnej płytce PCB(tak.jak Leadtek).Punkty pomiaru są zaznaczone,wiec sprawdzenie napiecia nie powinno byc problemem.Standartowe V powinno wynosić wedle tego opisu ok.1.45V a zmniejszenie rezystancji tego rezystora(A)o każde 50 Ohmów da +0,1V na rdzeniu. O biosach do GT z wiekszym V nawet nie słyszałem,pozostaje ołówek/lutowanie.
-
Tu masz linka do moda GF6600GT Leadteka i gainwarda-KLIK Rezystancja rezystora C37 wynosi 580 Ohm ,trzeba ją zmniejszyc (np.ołówkiem)do wartości 480 Ohm by uzyskać dodatkowy voltaż na GPU.
-
Na stronie 142 podawałem komuś linka do egieldy z biosami 1,4 i tym niby 1,5(bo z tego co mi widomo 1,5 i tak nic nie zmienia).
-
I jeszcze jedno-R84 sprawdzałem dwoma miernikami- rezystancja wynosiła 90Ohm,oczywiście nie znaczy to ,że tak być musi-moge miec beznadziejne mierniki,albo w nowszych wersjach ,producent zmienil nieznacznie specyfikacje( gdzieś mi przemkneło ,że ktos zgłaszal ,że rezystancja jest większa).Tego moda,mam 7-8miesięcy i działa w 100%.Wole mieć po prostu orginalny BIOS,to tyle ...
-
Wszystko to już było-wczesniej Zresztą timingi też już byly przerabiane-dodam tylko ,że niestety najwazniejszych timingów nie da sie wyedytować,tzn.ściślej mówiąc b.trudno znależć odpowiednie wartości np.hex edytorem.Ale jeszcze troche i bedą rozpracowane-paru gości już się tym zajmuje ,także z chwilą gdy będzie można wyedytować większość ,pamięci powinny lepiej się podkręcać. Oczywiście nie zawsze lużniejsze timingi gwarantują podniesienie zegarów pamieci(bo to zalezy od wielu innych czynników). Również wyższe zegary nie zawsze zapewnią np.wzrost punktów w 3dmarkach,ale za to zapewnią większą przepustowość pamięci np.DDR 680=10880 Mb/s a DDR 740=11840. Oznacza to ,że w jakiejś gierce mamy FSAAx2 "za darmo".Albo kilka klatek więcej jak kto woli. Co do punktow pomiaru- w topicu dla 6200 ktoś je podawal dla GF6200 Leadteka,a ponieważ 6600 i 6200 tego producenta mają identyczne PCB, punkty pomiru są takie same.Zresztą na VR-zone jest przykład Vmoda A6600TD jak bedę miał czas zapodam linka.
-
Opis flashowania oraz Bios 1,4 i 1,5(hę?) jest tutaj
-
Poszukaj na tym forum-ewentualnie może ktos Ci go(bios 1,4V) prześle. Co do flashowania->tu znajdziesz program flashcd(Bootable CD->1,44). Za pomoca tego programu oraz UltraISO(wersja 30dn. w zupelności wystarczy)przygotujesz płyte startową zawierającą program flasciach!acy (nvflash 5.13 lub 5.25)bios 1,4 oraz inne,np.standartowy bios wteż warto umieścić by nie kombinować drugi raz w razie problemów.Wszystko jest opisane w pliku readme.Nvflach można zassać stąd. Co to odblokowanej temperatury,to w tej chwili już nie ma znaczenia ponieważ Riva tuner 15.8 ma wtyczkę do odczytu temperatury z diody termicznej,także już nie trzeba modyfikować BIOS-u.
-
Po pierwsze ,Riva Tuner nie działa niskopoziomowo przy podkręcaniu zegarów w kartach FX5xxx,GF6xxx,jedynie w starszych GF3/4,wiec czy podkrecasz rivą czy w zakładkach sterownika, nie ma absolutnie żadnego znaczenia-działa to w ten sam sposób.Po drugie ,problem nie jest związany ze sterownikami tylko z GPU.Oznacza to ,że NIE MOŻE on poprawnie działać z takimi ustawieniami,ponieważ nie przechodzi wewnętrznego testu sterownika.Można to ominąć wyłączając test za pomocą RT,ale tylko jeśli masz zamiar bić rekordy w 3d markach,a nie do codziennego użytku. Innymi słowy-jak podkręcasz zwykły procesor i NIE PRZECHODZI on "torture test" w Prime95 ,to logiczne ,że jest niestabilny i albo należy go odkrecić albo podbić Vcore i sprawdzać dalej.Oczywiście są też tacy którzy twierdzą ,że mają błedy w Prime95 ale komp im hula aż miło-to jest własnie analogia do testu sterownika(wg. tych osób skoro wszystko działa to jest ok.).Większość wyłącza ten test myśląc ze jest to blokada przed OC,lub coś w tym stylu,nie zdając sobie sprawy ,że grozi to niestabilnością sprzętu lub walką z BSOD w windowsie.Ja sobie tego nie wymyśliłem-twórca Rivy tuner-Unwinder- wyrażnie o tym pisze.Sterowniki Nvidii dysponują zabezpieczneniem na wypadek niestabilności tzw."Robust Channels" ,jest to odpowiednik "VPU Recovery" w kartach ATI.Działa to w ten sposób ,że gdy GPU przestaje odpowiadać na polecenia sterownika Robust Channells restartuje sterownik/obniża częstotliwość GPU(przechodząc np.w tryb Low power 3D).Ale z doświadczenia wiem ,że nadmierne OC raczej sutkuje totalną zwiechą bez żadnego ostrzeżenia(6600 nie ma trybu low power 3d).Zrobisz jak uważasz-jak wyłączyć test znajdziesz w paru postach wczesniej.
-
..Artykuł na egieldzie akurat znam-co do autora(Focus),uwazam ,że wśród wielu polskich stron na których mozna znależć testy kart grafiki są tylko dwie które robią to jak należy i testy tego goscia są jednymi z najlepiej i najwiarygodniej przeprowadzonych. No to muszę Cię trochę doedukować. Co do 6600.Tak się składa ,że architektura tego układu(NV43) jest troche bardziej złożona niż się wydaje.W pewnych okolicznościach faktycznie zachowuje się jak karta 4x2,gerneralnie tymi okolicznościami są testy fillrate w benchmarkach.Kłopot wtym ,że 99% gier bedzie zachowywać się jak na typowej karcie 8x1 . Dzieje się tak dlatego,że z ukladu zostały wycięte cztery Render Output Pipline,co powoduje ,w że jednym przebiegu może przetwarzać 8 pikseli(jak karta 8 potokowa) ale tylko 4 mogą zostać zapisane(wysłane do ROP).Nie jest to dużą wadą ponieważ już zwykłe filtrowanie trojliniowe zajmuje dwa przebiegi(2 cykle)i jednostki ROP w dużej mierze leżą przez ten czas "odłogiem". We wspołczesnych grach ilość operacji na pikselach jest bardzo duża i i co najważniejsze będzie się zwiększać.Wydajność kart graficznych nie określa już sama liczba potoków renderujących ale też ilość jednostek pixel shader.A i jeszcze jedno-7800GTX ma 24 potoki ale tylko 16ROP(6600 ma 8 potoków pikseli,8 TMU+4ROP) a np.Radeon x1600 ma 12 potoków pikseli,5 potoków geometrii , 4TMU i 4 ROP. Także muszę Cię rozczarować -z żadnego błędu mnie nie wyprowadziłeś.
-
Zapomniałeś dodać ,że nie u wszystkich to działa,ale jeśli to akurat pomoże to tylko sie cieszyc z kolejnego zadowolonego posiadacza nf3.Pozdro
-
Jak to przeczytałem o mało nie spadłem z krzesła.Nawet nie zdawałem sobie sprawy ,że RT ma takie wspaniałe możliwości. Co do zasilacza-do kart tego rodzaju w zupełności wystarczą 350W zasiłki dobrej firmy,także pakowanie PSU powyżej 420W ,to przerost formy nad treścią(no chyba że planujesz w przyszłości SLI+RAID+max OC CPU). Zajrzyj do wątku "freezy ...." . Ale raczej nik tak nie znalazł rozwiązania.Co do samych freezów zauważyłem je już na GF3 ,GF4.Po zmianie sterowników(na nowsze/inne) zdażały się dziwne przycięcia trwające milisekundy.Były ciężko dostrzegalne,ale psuły komfort gry.Z tego co doszedłem za pomocą Performance HUD,problem dotyczyl sterownika-na wykresach widać było drastyczne spadki FPS-ów w regularnych odstępach czasu(co kilka sekund). Problemy stwarza też kombinacja kart NV z nForce3-i rozwiązaniem jest... wymiana MoBo. A tutaj tabela poboru mocy kart NV z serwisu xbitlabs.
-
@Wild555 Spróbuj podłaczyć kartę przez przejsciówke D-Sub->DVI i sprawdź czy te piksele się pojawiają.Być może wyjście/wejście monitora jest uszkodzone(jeżeli karta działa poprawnie na innym kompie to jest taka mozliwość).W przypadku ,gdy takie objawy pojawiłyby się równierz na innym kompie,mogłoby to oznaczać np.uszkodzenie układu RAMDAC,co równa się oddaniu karty na gwarancję (wymiana na nową).Jeżeli takie piksele pojawiałyby się w czasie gry (obraz 3d),to wtedy możnaby podejrzewać uszkodzenie któreś jednostki Pixel Shader(pixel unit),lub przegrzewanie karty.Przyjrzyj się wentylacji w budzie-może coś jest nie tak? Bardzo ciekawe-od kiedy to 6600 ma 4x2?Wyjasnij mi bo może czegoś nie wiem?
-
Rev.A4 w 6600GT(NV43).SĄ NIEMODOWALNE .Nawet nie probuj bo nic nie zdziałasz zmienisz tylko device Id-a i tak profesjonalne opcje bedą zablokowane,da się przerobić wer.A2. Z innych kart to 6800-ale tutaj oprócz kombinacji z Riva trzeba użyć odpowiednich sterowników(wszystkie są zablokowane -na kilku udaje się modyfikacja).Generalnie to wielka loteria-jednym sie udaje innym nie.Klucz to własciwe sterowniki,spatchowanie ich itd. Sprawdź tu
-
No i tym razem musze przyznać Ci rację coć nie w 100%,faktycznie większość sprzedawanych kart to modele low-end,i mainstream,jeżeli da się je przerobić na odpowiednio entry-level i performance mainstram ,to może napędzić ich sprzedaż(i tak zresztą jest).Jest jedno ALE-nie wszystkie karty się modują i generalnie raczej kilku najwiekszych producentów(najściślej wspołpracujacych z producentem układow) ma z tego realne zyski.Wiekszość kart się nie moduje i jest to fakt.Poza tym ,ktoś kto z sukcesem zmoduje grafikę raczej nie pomyśli o jej wymianie zbyt szybko i im lepszą kartę będzie otatecznie posiadał ,tym poźniej pomyśli o zmianie-co raczej nie jest po myśli Chipzilli i ATI. Ale jest jak najbardziej po myśli cenionym producentom kart graficznych. A AMD?Te proce robią i robiły to samo co CPU Intela i co najważniejsze kosztowały i miały/mają odpowiedni stosunek ceny do wydajności.Od czasów Athlona XP do dzisiejszych A.64 ,ktore dodatkowo wprowadziły masę przydatnych rozwiązań .Intel nic ciekawego oprócz Centino już od dawna nie zaprezentował(co nie znaczy że nie zaprezentuje). No a OC i modding jest cool i trendy to fakt :D i jesli jeszcze da się podciągnąć dzięki temu sprzedaż(a da się) to jest juz w ogóle swietnie.Choć czasem skutkuje to kuriozalnymi rozwiązaniami w postaci fabrycznie podkreconych FX5200 (i innych)sprzedawanych pod dumnymi nazwami Ultimate,Turbo,OC... Ale to temat na sobną dyskusję.Pozdrawiam!
-
No tak,zdefiniowanie na nowo potoku renderującego przydałoby się bardziej działom marketingu niz zwykłym "zjadaczom" FPS-ów których interesuje wydajność i jeszcze raz wydajność. A co do wiedzy Unwidera,no cóż, siedzi w kartach graficznych(a raczej w ich sterownikach),już dość długo,bodajże od poczatku sukcesow NV(99-2000 rok RivaTNT itd.).Na pewno zwrócił uwagę nv,np.szczególnie przydatnym dla co poniektorych modem GeForca @Quadro.Z tego co zauwazyłem, teraz stara się nie odpowiadac na pytania związane z modowaniem na quadro.Z pewnością zna kogoś z nv,mniej lub bardziej oficjalnie.Ale nie zauważyłem żeby żle wypowiadał się na temat kart ATI,za to zwracał uwagę na fatalną wydajnośc FX-ów wtedy, gdy karty te były na "topie" <_< .Także za brak obiektywizmu trudno go posądzać.Ale nie wiemy jak do końca jest-choć z drugiej strony odblokowywanie potoków w 9800/6200/6800 ,to też strata pieniedzy dla producentow kart i samej nv(na zasadzie-masz szybszą kartę to poźniej pomyślisz o jej zmianie).Pewnie nie przez wszystkich jest ceniony... A tu dyskusja w którą się wtracił-bierze w niej udzial przedstawiciel NV nvnews
-
Już zauważyłem ze popelniłem błąd i odpowiedziałem.O jakiej blokadzie na galaxy 6600 piszesz?B to,że pamieci się nie kręcą moze być związane z wieloma czynnikami.