Eladril Opublikowano 15 Listopada 2010 Zgłoś Opublikowano 15 Listopada 2010 (edytowane) Czy potrafi mi ktoś wytłumaczyć, jak to możliwe że temperatura procesora (dwóch rdzeni mojego e4400 2ghz @3ghz), jest mniejsza gdy oprócz dwóch procesów orthosa odpale jeszcze superPI dla pomiaru stabilności pamięci? ;o Konkretnie: bez superPI temp ~66-69, z superPI ~58-61 .. Logiczny wniosek jaki się nasuwa jest taki że superPI odbiera jakoś obciążenie z CPU, ale jak to niby możliwe? Nie powinno być odwrotnie? Poza tym, menadżer zadań windows pokazuje wykorzystanie CPU 100% w obu przypadkach. :confused: .. PS Orthosa nalezy odpalić 2x w przypadku 2 rdzeni, 4x w przypadku 4 i tak dalej, czy jest to bez różnicy, bo w programie widzę "Launching 2 threads... Using CPU #0"; i w okienku niżej "Using CPU #1" .. najwyraźniej więc program chyba poddaje 'torturom' oba rdzenie, sprzecznie do tego co mówi się tutaj na forum. afaik. PPS Ustaliłem stabilną wartość napięcia dla procesora, testując go orthosem przez 3 godziny. Teraz sprawdzam na wartości o oczko mniejszej żeby sprawdzić czy na niższym też poleci. Sęk w tym że co jakieś 2-3minuty mam kilku sekundowe freezy. Orthos chodzi narazie 31minut, bez błędów. Czy w takim razie, nawet gdyby nie pojawiły się błedy etc powinienem wrócić do wyższej wartości bo te freezy to coś poważnego czy nie? Właściwie to mam wrażenie że po prostu urządzenia usb przestają mi działać, tj. system chodzi właściwie ale nie mogę poruszyć kursorem i klawa też nie odpowiada O.o No nie ważne może powinienem to olać. Dzięki i sry za tak pokomplikowany post :) Edytowane 15 Listopada 2010 przez Eladril Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
szpachla2 Opublikowano 15 Listopada 2010 Zgłoś Opublikowano 15 Listopada 2010 Napisz jeszcze czym mierzysz temperaturę, bo jak programem to temat do zamknięcia :) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Eladril Opublikowano 16 Listopada 2010 Zgłoś Opublikowano 16 Listopada 2010 No przepraszam a czym? Jak inaczej zmierzyć temperaturę. CoreTemp Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
SzczYpior_n1 Opublikowano 16 Listopada 2010 Zgłoś Opublikowano 16 Listopada 2010 Napisz jeszcze czym mierzysz temperaturę, bo jak programem to temat do zamknięcia :) Nie przesadzaj, chyba pomyliło Ci sie z napięciami i gadasz to co powyżej nawet po przebudzeniu w środku nocy ;) No przepraszam a czym? Jak inaczej zmierzyć temperaturę. CoreTemp Co do problemu to obciąża sie kompa jednym programem, bo jeśli więcej użyjesz jak w Twoim przypadku to logiczne, że będą sie gryzły i będzie efekt odwrotny do zamierzonego. Jak Orthos ma przetestować procka swoimi algorytmami (jeśli można to tak nazwać) jeśli mu przeszkadza SuperPi zabierając cenne zasoby? Pojedynczy Orthos obciąża dwa pierwsze rdzenie. Teoretycznie można i uruchomić drugi proces Orthosa i ręcznie przełączyć koligację na dwa następne tylko po co skoro to procesy 32 bitowe i istnieje Prime 95 x64 (jeśli masz naturalnie system 64-bit) i w dodatku obsługuje wielordzeniowość? Osobiście używam OCCT bo jakoś bardziej wiarygodny mi się wydaje ;) PS. RAM najlepiej testować osobno (bez CPU) programem HyperPi, czyli wielowątkową wersją SuperPi, jeden wątek niebardzo sprawdzi ram... ;) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
szpachla2 Opublikowano 17 Listopada 2010 Zgłoś Opublikowano 17 Listopada 2010 Nie przesadzaj, chyba pomyliło Ci sie z napięciami i gadasz to co powyżej nawet po przebudzeniu w środku nocy Czyli twierdzisz że napięcie mierzone programem daje mało wiarygodne wyniki natomiast temperaturę podaje precyzyjnie? Teoria że dwa programy uruchomione jednocześnie obciążają komputer mniej niż pojedynczy program też jest ciekawa. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
kisiel96 Opublikowano 17 Listopada 2010 Zgłoś Opublikowano 17 Listopada 2010 Nooo a czym chcesz temperature mierzyć? Termometr do obudowy wkładać? Po to chyba są czujniki aby z nich można było korzystać softwarowo? Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Snups Opublikowano 17 Listopada 2010 Zgłoś Opublikowano 17 Listopada 2010 (edytowane) A wyniki dostajesz jakieś sensowne? Ja miałem podobny przypadek z grafą, gdy odpalałem 10 kopii benchmarka na raz. Karta po prostu się zacinała (3 fps itd.), a temperatura spadła o 15 stopni. Może masz podobnie z procem. Temp brałem z GPU-Z. Edytowane 17 Listopada 2010 przez Snups Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Leonzio666 Opublikowano 17 Listopada 2010 Zgłoś Opublikowano 17 Listopada 2010 Panowie, Orthos ? OCCT? Prime ? To jest dziecinada. Chcecie naprawdę maksymalnie przetrzepać proca i sprawdzić go na 100 % w bardzo krótkim przeciągu czasu ? TYLKO LinX. W góra 20 min można ustalić czy komp jest stabilny czy nie. Komp może nawet kilka godzin wyrobić w Orthosie czy Prime, a w LinX po 5 min padnie. A RAM to się owszem testuje, ale pod DOSEM - goldmem albo mt400, albo mt64+. Wtedy można być dopiero pewnym na 100 %. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
SzczYpior_n1 Opublikowano 17 Listopada 2010 Zgłoś Opublikowano 17 Listopada 2010 Czyli twierdzisz że napięcie mierzone programem daje mało wiarygodne wyniki natomiast temperaturę podaje precyzyjnie? Teoria że dwa programy uruchomione jednocześnie obciążają komputer mniej niż pojedynczy program też jest ciekawa. Na pewno precyzyjniej niż napięcia. W końcu masz CZUJNIK temperatury, a w której części procesora jest on umieszczony to inna sprawa. Fakt, że czujniki mogą być walnięte, ale widać, że u niego pokazuje realne temperatury, a poza tym chodzi o sam spadek. A teoria że dwa programy uruchomione jednocześnie obciążają komputer mniej niż pojedynczy program jest o tyle ciekawa i prawdziwa jeśli chodzi o tester który obciąża go w 100%. Bo wiadomo, że jeśli zapuścisz np. jedną rzecz do pakowania winrarem i będzie obciążenie 70% to jeszcze bardziej obciążysz go jak załączysz drugi proces pakowania to logiczne. Panowie, Orthos ? OCCT? Prime ? To jest dziecinada. Chcecie naprawdę maksymalnie przetrzepać proca i sprawdzić go na 100 % w bardzo krótkim przeciągu czasu ? TYLKO LinX. W góra 20 min można ustalić czy komp jest stabilny czy nie. Komp może nawet kilka godzin wyrobić w Orthosie czy Prime, a w LinX po 5 min padnie. A RAM to się owszem testuje, ale pod DOSEM - goldmem albo mt400, albo mt64+. Wtedy można być dopiero pewnym na 100 %. Z LinX może i się zgodze, dobry program, jednak nie każdy może nim testować, szczególnie jeśli ma boxowe chłodzenie lub extremalnie podkręconego procka. W nim tempy potrafią być wyższe o nawet ponad 10 stopni niż w orthosie. A co do testowania Ramu to chyba nie wiesz co mówisz kolego. Albo się naczytałeś pclola za dużo. Te Twoje MemTesty pod dosem możesz sobie w tył włożyć, testowanie nimi to strata czasu. Prosty przykład z życia wzięty: Kupiłem RAM, nie wiedząc, że był uszkodzony, komp był niestabilny do potęgi n, oczywiście sięgnąłem po goldem i potem memtesta, wszystko pod dosem... ZERO błędów po pół godziny testowania! Mówię, kurde ram sprawny? HyperPI rzucał błędem po minucie - dwóch. W końcu poszedłem do kumpla, wsadziłęm tak ram - komp wogóle nie odpala. I co? Twoja dziecinada w postaci MemTest i Goldmem NIE potrafiły wykryć błędów w działaniu totalnie uszkodzonego ramu... :lol2: Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
kfgz Opublikowano 17 Listopada 2010 Zgłoś Opublikowano 17 Listopada 2010 (edytowane) Te Twoje MemTesty pod dosem możesz sobie w tył włożyć, testowanie nimi to strata czasu.Tylko, że sam autor memtest86+ zaleca testowanie pamięci przez minimum 24h - jest to strata czasu, ale nie taka, którą masz na myśli ;) W GoldMemory 3-4h testu powinno wystarczyć. Edytowane 17 Listopada 2010 przez kfgz Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
SzczYpior_n1 Opublikowano 17 Listopada 2010 Zgłoś Opublikowano 17 Listopada 2010 No to co za interes testować minimum 24h, najlepiej może 48h co? komp zablokowany i jeszcze żre prąd :) To dla mnie nie program. Szczególnie że w pół godziny nie pokazał żadnych błędów w ciężkich obliczeniach a na drugim kompie nie chciał się system nawet uruchomić z tymi pamięciami bez ciężkich obliczeń ;) Troche nielogiczne prawda? :lol: Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Leonzio666 Opublikowano 17 Listopada 2010 Zgłoś Opublikowano 17 Listopada 2010 No więc dobra, może z tą pamięcią i macie racje, ale jak ktoś chce mieć na 100 proc stabilnego kompa, a nie na 90 plus "może się nie wywali po pół roku" to używa LinXa. Bo jak cpu przemieli te 100 pętli na full próbce to wiadomo, że już nic go nie ruszy. A jak ktoś kręci na boxowym coolerze to niech sobie lepiej wyższe oc podaruje. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
SzczYpior_n1 Opublikowano 17 Listopada 2010 Zgłoś Opublikowano 17 Listopada 2010 Tylko LinX ma to do siebie, że właśnie liczy w próbkach i dość długie przerwy są między kolejnymi, przez co obciążenie sprzętu nie jest ciągłe a z częstymi przystankami. No i trzeba mieć co najmniej 4GB Ramu żeby móc wybrać próbki o jakichś sensownych rozmiarach ;) Ale ok bo spory offtop zrobiliśmy. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
kfgz Opublikowano 17 Listopada 2010 Zgłoś Opublikowano 17 Listopada 2010 (edytowane) Jeśli chodzi o stałe obciążenie CPU/RAM to jest jeszcze y-cruncher oraz stressapptest (tylko Linuks). Edytowane 17 Listopada 2010 przez kfgz Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Leonzio666 Opublikowano 17 Listopada 2010 Zgłoś Opublikowano 17 Listopada 2010 Nie bardzo rozumiem dlaczego wybór próbki miałby być jakimś problemem. Po prostu wybiera się maksymalne możliwe obciążenie i jazda. Jak obciążam system to na tyle na ile tylko się da i nie wiem na co by się komu przydały mniejsze próbki, poza sprawdzeniem z ciekawości ile ramu trzeba zaangażować, żeby mieć tyle a tyle gflopsów. Ja używałem LinXa i do stareńkiego Semprona, i do e4400 właśnie (w obu przypadkach miałem 2GB RAM-u) i nie zauważyłem nic dziwnego w porównaniu do q6600 i 4 GB RAM-u :P Aha, jeszcze go z powodzeniem do Celerona na socket 478 używałem, a tam to już nawet tylko 1GB RAM-u było :P Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość <account_deleted> Opublikowano 17 Listopada 2010 Zgłoś Opublikowano 17 Listopada 2010 Odpalenie 2 programów testujacych może i najczęściej obniża moc pobieraną przez procka - ponieważ częściej zachodzi przełączanie zadań czy "context switching", więc średnie obciążenie jest mniejsze. 100% obciążenia pokazywane przez monitor systemu to bzdet, ponieważ oznacza jedynie ile czasu zostało przydzielone dla "procesu bezcznności" i nic nie mówi np o obciążeniu FPU. W zasadzie, o ile ktoś nie dysponuje specjalistycznym sprzętem, to nie ma innego sposobu pomiaru temperatury jak odczytanie jej z czujnika wbudowanego w CPU. Dokładność raczej nie jest za specjalna - błąd spokojnie może sięgać kilka stopni, bywały też czujniki całkiem zwalone. Z kolei pomiar napięć wykonywany przez zintegrowane przetworniki jest całkowicie, totalnie i absolutnie nic nie wart - śmieszna rozdzielczość, dokładność na poziomie kontrolki do sprawdzania fazy w gniazdku ;) - tylko wprowadzają w błąd nieświadomych ludzi. Co do stabilności ogólnie: Dlaczego nie podkręca się serwerów (serwerów, a nie prywatnych komputerków pełniących taką funkcję) ???? Odpowiedź jest prosta: nawet jeśli komp przejdzie tygodniowy test stabilności, to niestety nie ma gwarancji że będzie stabilny za kilka miesięcy, rok. Podkręcone mobo dostaje w dpę - elementy pracują w wyższych temp, z większymi prądami - co zwiększa ryzyko utraty stabilności a czasem prowadzi do awarii. Inny aspekt: programy testujące powtarzają w kółko pewien zestaw algorytmów - nie ma więc pewności że przy innym zestawie będzie również ok. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
cubEE18 Opublikowano 22 Listopada 2010 Zgłoś Opublikowano 22 Listopada 2010 @Leonzio666: Mógłbyś w takim razie napisać mini poradnik jak używać LinXa? Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
cubEE18 Opublikowano 22 Listopada 2010 Zgłoś Opublikowano 22 Listopada 2010 @Leonzio666: Mógłbyś w takim razie napisać mini poradnik jak używać LinXa? Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Marynarz Opublikowano 24 Listopada 2010 Zgłoś Opublikowano 24 Listopada 2010 Uruchomic, ewentualnie skorygowac 32/64 bity i ilosc watkow (najlepiej tyle ile rdzeni), wybrac ilosc pamieci dostepnej dla programu (rozmiar problemu), ilosc powtorzen (lub czas pacy) i START. Tyle poradnika. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...