Jump to content

m15m

Stały użytkownik
  • Content Count

    124
  • Joined

  • Last visited

Community Reputation

0 Neutralna

About m15m

  • Rank
    Uczestnik
  1. Sterowniki SATA/AHCI (AMD) Miałem to samo - przy restartowaniu lub zamykaniu systemu dysk twardy wielokrotnie się wyłączał i włączał. Winowajcą okazały się sterowniki AHCI AMD 1.2.0.125 - coś w nich namieszali; wersja 1.2.0.164 jest już OK. Więcej o tym problemie pisałem tutaj: Sterowniki SATA/AHCI - Advanced Host Controller Interface
  2. >>ArekW Ja mam 2x2GB GoodRam (GR800D264L6/2G) i na Biosie P1.30, P1.40 nie miałem żadnych problemów z tymi pamięciami. W trybie "Auto" płyta poprawnie rozpoznaje wartości z SPD, co widać na screenie. Aczkolwiek jak wiadomo wszelkie timingi i tak zawsze najlepiej ustawić manualnie. OC RAM-u na tej płycie też jest OK, gdyż uzyskałem taki sam wynik jak na innych płytach (trochę się ich przewinęło przez moje ręce), czyli: z fabrycznych 800MHz 6-6-6-18 1,8V na 980MHz 5-5-5-15 1,8V Sprawdzał ktoś może max. OC Sideportu na Asrock A780GXH/128M? 128 MB DDR2 ELIXIR 0912 N2TU1G16DG-AC 853467WOGU 3 TW U mnie 200x5,33=1066MHz chodzi stabilnie na napięciu "High" (1,9V?), na "Normal" (1,8V?) system się wykrzacza. Na razie więcej nie próbowałem. Najlepiej przy jego podkręcaniu ustawić "Internal Graphics Mode" tylko na sam "SIDEPORT", gdyż wtedy mamy pewność, że system szybko się wywali w razie przekroczenia max. stabilnego taktowania.
  3. ASRock A780GXH/128M Czekałem na ten Bios - rozwiązał on w moim przypadku problem z coldbootem po odblokowaniu rdzenia. Aczkolwiek z drugiej strony trochę pogorszył OC CPU-NB (OC samego CPU pozostało bez zmian). Przedtem (Bios P1.30) bez problemu robiłem stabilnie (Prime 95 - Blend test) >2400 MHz, a teraz ~2100 MHz (w obu przypadkach na fabrycznym napięciu CPU-NB = 1,175 V). Przy 1,188 V jest stabilnie na 2400 MHz w Prime95, ale pojawił się problem z coldbootem (zwiększenie do 1,225 V nic nie dało) - musiałem obniżyć mnożnik CPU-NB. Wady płyty (Biosu): 1. Niedziałające C'n'Q. Jak wiadomo C'n'Q będzie działać dopóki opcja "Multiplier/Voltage Change" będzie ustawiona na "Auto" - po zmianie na "Manual" tracimy C'n'Q i to jest błąd! Większość producentów płyt głównych raczej tak ustawia Biosy, że C'n'Q tracimy dopiero po zmianie mnożnika procesora, co ma swoje logiczne uzasadnienie. Natomiast rozwiązanie programistów ASRocka to nadgorliwość - nie ma żadnego racjonalnego powodu żeby blokować C'n'Q w przypadku zmiany mnożnika i napięcia CPU-NB. Podobnie ze zmianą napięcia CPU - nie każdy przecież od razu wali >1,5 V, co powiedzmy mogło by być teoretycznie "niezdrowe" dla procesora i powodować niestabilność przy ostrym OC i włączonym C'n'Q. Zresztą C'n'Q zawsze można sobie ręcznie wyłączyć (Bios, System); dlaczego zatem programiści ASRocka próbują być na siłę mądrzejsi od użytkowników albo odwrotnie - robią z nich idiotów? Mam (naiwną) nadzieję, że zmienią to w kolejnej wersji Biosu. Niby można olać ten "bubel" ASRocka i zrobić sobie własne C'n'Q, ale wymaga to już instalowania dodatkowych aplikacji oraz ich startu razem z systemem. Szkoda, bo działające C'n'Q w postaci Bios-System/sterowniki jest bardzo wygodne. WinVista/Win7 mają funkcjonalne plany zasilana, gdzie możemy sobie wszystko poustawiać (CPU i resztę podzespołów) oraz szybko się przełączać między poszczególnymi trybami. 2. Niebezpiecznie skonfigurowany profil Biosu: "Load Performance Setup Default". Szczęka mi trochę opadła gdy zobaczyłem, że w tym trybie płyta ustawia napięcie rdzenia graficznego (780G) na poziomie 1,45 V, a taktowanie na 830 MHz. Ciekawy jest to, że przy takich ustawieniach opcje odpowiedzialne za nie w Biosie wciąż figurują jako "Auto" - wprowadzając w błąd użytkownika. Samo taktowanie jeszcze nie jest najgorsze, ale napięcie już tak - zwłaszcza przy tym fabrycznym, małym (~30 g), aluminiowym radiatorku. Na domyślnych ustawieniach (1,1 V i 500 MHz) radiatorek jest już bardzo gorący (w stresie trudno utrzymać na nim palec), a co dopiero na ustawieniach: 1,45 V i 830 MHz... Myślę, że grozi to co najmniej niestabilnością systemu - przegrzewaniem się Chipsetu-NB, a w skrajnych sytuacjach (brak wentylacji obudowy) może nawet jego uszkodzeniem. Czyżby projektanci Biosu dbali o to żeby serwisanci mieli co robić? Ja tam zawsze sobie wszystko manualnie ustawiam w Biosie, ale ktoś kto wybierze ww. profil sądząc, że płyta dobierze optymalne ustawienia może się srogo rozczarować... 3. Błędne odczyty czujników. To jest przypadłość płyt ASRocka, a raczej tanich (za parę centów) czujników na płycie. Generalnie cyfrowy miernik uniwersalny to podstawa, gdyż pomiar programowy z czujników na płytach głównych często ma niewiele wspólnego z rzeczywistością. Choć z drugiej strony bardziej "markowi" producenci płyt zazwyczaj stosują trochę lepsze czujniki, bo jeszcze nie spotkałem się nigdzie z takim rozrzutem napięć jak u ASRocka... Jeśli nie jest to tylko kwestia zastosowanego układu (czujnika), ale też odpowiedniej jego kalibracji programowej (Bios) to mogliby coś z tym zrobić. Przykład I: Tutaj ktoś mierzył napięcia miernikiem i wyszło całkiem dobrze, także sekcja zasilania w tym modelu: fazy(mosfety) 4(3)+1(2) jest OK. Przykład II: Na moim egzemplarzu płyty (pomiar trwał 10 min) tak to wygląda: BIOS |IDLE |STRES |HWMonitor |HWMonitor |1,35 V|1,31 - 1,41 V|1,33 - 1,45 V| PS: Jak ktoś ma czas, chęci i w miarę dobrą znajomość pisemnego, technicznego j. angielskiego to niech przetłumaczy fragment o wadach (zwłaszcza o C'n'Q) i wyśle na e-mail do supportu ASRocka - im więcej osób to zrobi tym większa szansa, że coś z tym zrobią. ;)
  4. W 215 można odblokować cache L2 (z 512 do 1024 KB) Jakie jest fabryczne napięcie rdzeni i NB w 240/245/250?
  5. Widocznie musisz mieć jakieś dodatkowe kodeki, filtry zainstalowane w systemie lub trafiłeś na jakiś konkretny plik.3gp, który dał się odtworzyć z dźwiękiem. Przykład: Win7 x86-64, bez zainstalowanych kodeków, filtrów + MPCHC x86-64 + próba odtworzenia pliku.3gp: Po zamknięciu okienka komunikatu plik.3gp się odtwarza, ale bez dźwięku. Ale dlaczego miałby nie działać? Po co miałbym zaśmiecać system dodatkowym playerem specjalnie dla 3gp? MPCHC + ffdshow i pliki.3gp działają bez problemu, a jak dorzucimy do tego Real/QuickTime Alternative to odtworzymy chyba praktycznie wszystko (ewentualnie MPCHC + K-Lite Codec Pack Mega).
  6. MPCHC nie z konieczności tylko z wyboru, bo to naprawdę dobry odtwarzacz video. Prosty, funkcjonalny interfejs, mnóstwo opcji konfiguracji, małe pożeranie zasobów. Jedynie, co mnie w nim irytuje to źle (jak dla mnie) dobrane domyślnie skróty klawiaturowe (przewijanie, wyciszanie, informacje o pliku, itp.) - oczywiście można to samemu skonfigurować, ale... Bestplayer ma w standardzie tak jak powinno być ;) Bestplayer ma wiele zalet MPCHC, a ponadto oferuje całkiem ciekawą opcję "Przybornik" - po jej kliknięciu mamy szybki dostęp do informacji o filmie (internet), playlisty, napisów oraz paru innych popularnych ustawień. SubEdit też był niezły, choć używałem go praktycznie tylko do edycji napisów. Program przestał być już chyba rozwijany? K-Lite Codec Pack (Basic, Standard, Full, Mega) - żeby mieć pewność, że wszystko się odtworzy trzeba instalować wersję "Mega". Jeśli ktoś chce iść po najmniejszej lini oporu to faktycznie zamiast instalować: ffdshow + Real, QuickTime Alternative można zainstalować paczkę K-Lite Codec Pack Mega. ALLPlayer - również go używałem ale w porównaniu do MPCHC i BESTplayer'a wypadł w moich oczach słabo. Przede wszystkim ma gorszy (mniej czytelny) interfejs, mniej opcji konfiguracji i sporo zbędnych dupereli. Porównanie MPCHC - ALLPlayer to jak porównanie foobar2000 - Winamp (zwłaszcza w kwestii interfejsu), dlatego wole tego pierwszego. No i cały ten "LiveUpdate" pozostawia wiele do życzenia - przy korzystaniu z serwera premium (coś tam trzeba płacić) działa OK, ale przy free serwerze nie wszystkie kodeki są dostępne. To podważa sens tej funkcji - dla mnie liczą się jedynie w pełni darmowe odtwarzacze video. Oczywiście można zainstalować sobie paczkę zewnętrznych kodeków, filtrów tylko w tym momencie cały ten "LiveUpdate" będący istotną, wyróżnioną przez producenta funkcją jest... zbędny (pisząć delikatnie) :] Fakt - VLC jest ogólnie dobry, ma prosty i czytelny interfejs, mnóstwo opcji konfiguracji, dostępny jest na wiele platform systemowych. Posiada wbudowane kodeki do prawie wszystkich formatów video, ale... no właśnie "prawie" robi różnicę - nie działa dźwięk w plikach .3gp. Czasem przy przewijaniu plików .rmvb robi "pikselozę" i artefakty (przez chwile) w obrazie. Ktoś powie szczegół, ktoś inny może jednak marudzić, że nie po to trzyma na dysku ~72 MB katalog zawierający VLC żeby jeszcze dodatkowo instalować kodeki/filtry i konfigurować program. MPCHC x86-64 (bez dodatkowych kodeków w systemie) otwiera również pliki .3gp ale bez dźwięku... Zresztą z plikami .rmvb już sobie w ogóle nie poradzi, bo nie ma wersji Real Alternative 64 bit. Podobnie QuickTime (qt/mov) - nie ma QuickTime Alternative 64 bit. Być może niektóre pliki .mov odtworzy (zależy to pewnie od tego czym były zakodowane), ale generalnie nie obsługuje tego formatu. Problem w tym, że producenci softu ociągają się w wypuszczaniu wersji 64 bit; coś mi się wydaje, że aplikacje tego typu zaczną się masowo pojawiać dopiero w okolicach premiery Windows 8 (jeśli MS dotrzyma słowa i wypuści tylko wersję 64 bit). Dlatego zamiast używać MPCHC 64 bit używam wersji 32 bit (bo nie ma wszystkich kodeków w wersji 64 bit). Podobnie z Firefox'em - chętnie bym się przesiadł na wersję 64 bit gdyby tylko był Adobe Flash Player 64 bit (Java już jest 64 bit). Reasumując, do odtwarzania video polecam TO.
  7. x86 i x64 (w kontekście nazewnictwa architektury x86: 32 bit i 64 bit) to niepoprawne skróty (zwłaszcza ten pierwszy), które się niestety utrwaliły i są powszechnie używane. Prawidłowo powinno to wyglądać właśnie tak jak napisałem, czyli: x86-32 - co oznacza: "architektura x86 rozszerzona do 32 bit" x86-64 - co oznacza: "architektura x86 rozszerzona do 64 bit" Ewentualnie jeśli już chcemy stosować skróty to raczej takie: x32 i x64, co oznacza: "x" - architektura x86, "32(64)" - rozszerzona do 32(64) bit.
  8. Moim zdaniem najlepsze do odtwarzania video na Win7 x86-64 (i nie tylko) jest połączenie: - Bestplayer + K-Lite Codec Pack Mega - Media Player Classic Home Cinema + K-Lite Codec Pack Mega ewentualnie: - Media Player Classic Home Cinema + ffdshow + Real Alternative Lite + QuickTime Alternative Lite PS: Obecnie nie ma jeszcze wszystkich kodeków, filtrów w wersji x86-64, dlatego polecam pozostać przy playerze x86-32.
  9. Kupiłem okazyjnie Samsunga HD502HI (500 GB/talerz, 5400 RPM), no i jestem zadowolony - dysk jest: - bardzo cichy (wg producenta: 2,2 Bel - idle, 2,7 Bel - stress) - bardzo chłodny (28°C - idle, 31°C - stress, 26°C - temp. w pokoju) - szybki (porównywalny z Samsung/Seagate 250-320 GB/talerz, 7200 RPM) PS: HDD zamocowany na sztywno (śrubki) do obudowy (bez wentylatora).
  10. Konkurencja dla Seagate 7200.12 ST3500410AS/ST3500418AS, który to miał ~110 MB/s w średnim odczycie: także pewnie Samsung HD502HJ będzie trochę lepszy. Co do głośności i ilości wydzielanego ciepła to prawdopodobnie Samsung wypadnie lepiej. Po pierwsze choćby dlatego, że Seagate uparł się wypuszczać dyski 1-talerzowe w cienkiej obudowie* 20 mm (Samsung w normalnej - 26,1 mm), a po drugie to już jest tradycją, że Samsungi są (z reguły) cichsze i chłodniejsze. *Pisałem już o tym na końcu tego postu. Osobiście zdecydowałem się na Samsunga HD502HI (500 GB/talerz, 5400 RPM), który to ma porównywalną wydajność z dyskami Samsung/Seagate (250-320 GB/talerz, 7200 RPM) ale jest znacznie od nich cichszy (i chłodniejszy), a na cichutkim dysku mi zależało. A tak w ogóle to chciałbym żeby były już SSD w cenie ~1 zł/1 GB... :)
  11. Rozmowy wideo i WebKit w Gadu-Gadu build 9103, 9115 / GG vs Tlen http://www.pcworld.pl/news/347640/Rozmowy.....Gadu.Gadu.html WebKit (zamiast silnika IE) w GG bardzo cieszy, bo aplikacje zauważalnie przyśpieszyła (najbardziej widać to po czasie otwierania okna rozmowy, program reaguje wyraźnie szybciej). Zmniejszeniu uległa także zasobożerność aplikacji. GG ładnie oddaje zajmowany RAM po kliknięciu na "słoneczko" w zasobniku systemowym (z 49 do paru MB). Zaryzykowałbym nawet stwierdzenie, że wreszcie (po tylu latach!) pod względem zużywania zasobów komputera (CPU, RAM) nowe GG dorównuje Tlenowi. Niestety - GG zawsze było "100 lat za murzynami", dlatego (oraz z paru innych powodów) wciąż korzystam z Tlena. Nie mniej jednak ten nowy build to spory krok naprzód; programiści GG wzięli się do roboty i najpopularniejszy komunikator w Polsce ostatnio przyśpiesza/polepsza swój rozwój/jakość. Oby tak dalej... Porównanie wydajności: Metodologia testów: menedżer zadań - WinXP Pro SP3 x86-32, pomiary zaraz po uruchomieniu aplikacji (kilkadziesiąt kontaktów na liście); CPU: Athlon X2 2,7 GHz, RAM: 4 GB. *reklamy (flashowe banery) pożerają sporo zasobów - po ich wyłączeniu zużycie RAM-u i CPU wyraźnie spada. Gadu-Gadu build 9103 Zużycie RAM-u: *reklamy ON 49 MB *reklamy OFF 42 MB Po kliknięciu w ikonę (w zasobniku systemowym) GG oddaje RAM - zużycie spada do paru MB. Dodatkowo spellchecker_gg zużywa 2,8-21 MB (ale tego nie liczę, bo to funkcja dodatkowa - zainstalowanie słownika w Tlenie daje podobne wartości). Zużycie CPU: *reklamy ON 0-5% *reklamy OFF ~0% Tlen 6.0.3.77 Zużycie RAM-u: *reklamy ON 33 MB *reklamy OFF 26,5 MB Po kliknięciu w ikonę (w zasobniku systemowym) Tlen nie oddaje RAM-u. Zużycie CPU: *reklamy (ON) 0-2% *reklamy (OFF) ~0% Wady GG? 1. Przede wszystkim znacznie odchudziłbym GG ze zbędnych dupereli (dodatkowe moduły/usługi, np. Radio). Robienie na siłę z komunikatora "multimedialnego kombajnu" to bardzo kiepski pomysł (coś co jest do wszystkiego jest do niczego - szybko staje się przerośniętym zamulaczem). Do odtwarzania muzyki (radia) na komputerze (Windows) służy foobar2000 albo Winamp. Instalator Gadu-Gadu to 21 MB, a Tlena 6 MB - to mówi samo za siebie... 2. Interfejs GG jest zbyt cukierkowaty i "przybajerzony" - niestety ergonomia programu na tym cierpi. Odstępy miedzy poszczególnymi kontaktami są zdecydowanie zbyt duże, podobnie czcionka - przy kilkudziesięciu kontaktach na liście scroll w myszce jest w ciągłym użyciu... Wiele przycisków jest również zbyt duża. Kontrast między kolorkami słoneczka: dostępny/zaraz wracam/niedostępny jest trochę zbyt słaby. Generalnie przejrzystość interfejsu pozostawia wiele do życzenia (mam na myśli porównanie skórki "classic" GG ze skórką "standard-old" Tlena). 3. Stanowczo za dużo, za dużych (rozmiar) reklam w nowym GG (na szczęście można to obejść, choć naruszamy w ten sposób licencję). 4. Możliwości konfiguracji GG wciąż są mocna ograniczone (wystarczy porównać okienko z ustawieniami GG i Tlena). 5. Gdzie jest wersja GG na Linux'a oraz Mac OS X? Tlen takowe posiada. Wiem, że są lepsze komunikatory na Linux'a niż GG i Tlen razem wzięte ale chodzi mi o rzetelność i solidność producenta. Poza tym możliwość przeniesienia swojego archiwum rozmów między różnymi platformami systemowymi również dla niektórych może być istotna.
  12. Pamięci są na fabrycznym napięciu (defV = 1,8 V), ale w biosie widnieje wartość 1,76V. Prawdopodobnie moja mobo zaniża napięcie o ~40mV i nie jest to raczej błąd odczytu układu mierzącego napięcia na płycie głównej (wielu użytkowników tego modelu skarży się na tą przypadłość); choć żeby mieć pewność trzeba by zmierzyć miernikiem. Zresztą to w sumie nieistotne, bo przy +50mV na ramie (bios: 1,81V) wyniki OC były identyczne. Generalnie zawsze stosuję "optymalne OC", czyli wyciskam ile się da, ale na fabrycznych napięciach. OC procków zazwyczaj kiepsko się skaluje z napięciem >> defV (choć są wyjątki); z pamięciami to już różnie bywa, choć też często większość gratisowych MHz dostajemy na defV (zwłaszcza w przypadku najtańszych pamięci). Zresztą zależy mi również na energooszczędności => ciszy PC. Timingi były fabryczne (6-6-6-18), bo chciałem jedynie na szybko sprawdzić max. częstotliwość pamięci. Przetestowałem też na timingach 5-5-5-15 (patrz niżej). Myślę, że niższych (4-4-4-12) nie ma sensu ustawiać (abstraciach!ąc od tego, że moje zwykłe, tanie GoodRamy z CL6 pewnie by nie polatały na nich) gdyż wyższą wydajność uzyskujemy z odpowiednio wyższej częstotliwość pracy pamięci (kosztem timingów) niż na odwrót. Dotyczy to CPU K8 (występują drobne różnice w zależności od 90, 65 nm / rewizji) oraz tym bardziej K10 i K10.5 Mnożnik - niestety nie (nie planowałem tego porównania, a poprzedniego CPU już nie mam). MAL (7 ns), TRFC (127,5 ns) oraz wszystkie alpha timingi oczywiście takie same. Trochę się pobawiłem i wyszło tak - wyniki OC RAM-u (stable by Prime95): Konfiguracja: - GoodRam 2 x 2 GB (DC), 800 MHz, CL6, defV - Foxconn A690GM2MA-8KRS2H (690G + SB600). Athlon X2 4200+ (90 nm, F2, TDP 65 W) a) Min. 11 x 262 / 6 = 480 (960 MHz @ 6-6-6-18 @ 1,76 V) Nie podkręcałem więcej, ale raczej zrobi podobnie jak wersja 65 nm na pełnym mnożniku. Athlon X2 4050e (65 nm, G2, TDP 45 W) a) Max. 10,5 x 252 / 6 = 441 (882 MHz @ 5-5-5-15 @ 1,76 V) b) Max. 10,5 x 264 / 6 = 462 (924 MHz @ 6-6-6-18 @ 1,76 V) c) Max. 10 x 244 / 5 = 488 (976 MHz @ 5-5-5-15 @ 1,76 V) d) Max. 10 x 250 / 5 = 500 (1000 MHz @ 6-6-6-18 @ 1,76 V) Ok - między 90, a 65 nm CPU nie ma znaczących różnic w OC pamięci (w moim przypadku). Ale dlaczego kontroler pamięci w wersji 65 nm tak kiepsko ją prowadzi na połówkowym mnożniku proca (10,5x), osiągając ~90 MHz mniej niż na pełnym (10x)? Współczesne płyty główne z dopracowanymi biosami nie powinny raczej mieć problemów przy OC na połówkowych mnożnikach. Tym bardziej, że samo max. OC procesora jest takie samo dla obu mnożników (10x i 10,5x). Reasumując jestem trochę zaskoczony wpływem połówkowego mnożnika procesora (65 nm, G2) na podkręcalność samych pamięci.
  13. m15m

    Oc Pamięci 2x2gb

    Raczej ciężko... W tym przypadku to można upolować dobre sztuki pamięci nawet z marki GoodRam: - def: 800 MHz @ 6-6-6-18 @ 1,8 V - OC: 976 MHz @ 5-5-5-15 @ 1,76 V Stable by Prime95 (Blend Test) Cena - 130 zł (za 2 x 2 GB). Także warto wspierać Polski przemysł. Dobre bo Polskie ;) Zresztą zamiast dopłacać xx% do pamięci DDR2 >1000 MHz lepiej kupić zwykłe 800 MHz ale o xx% większej pojemności - ogólna wydajność i komfort pracy będzie o wiele większy.
  14. Zauważyliście gorsze OC RAM-u na rewizji G2 względem wcześniejszych (F2)? OC (Prime95) GoodRam 2x GR800D264L6/2G: - Athlon X2 4200+ (F2, 90 nm, 65 W) ~ 960 MHz @ 6-6-6-18 @ 1,76 V - Athlon X2 4050e (G2, 65 nm, 45 W) ~ 900 MHz @ 6-6-6-18 @ 1,76 V Wiadomo, że wydajność (czas dostępu) Cache L2 w 65 nm (G2>G1) jest trochę niższa (parę %) niż w 90 nm (F2, F3); ale czy możliwe jest aby kontroler pamięci w 65 nm gorzej "prowadził" RAM niż ten w 90 nm - stąd gorsze wyniki OC pamięci? Spotkaliście się z czymś takim, czy raczej trafiła się gorsza sztuka proca i stąd ta różnica?
×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue.