
TheOne
Stały użytkownik-
Postów
27 -
Dołączył
-
Ostatnia wizyta
Treść opublikowana przez TheOne
-
1. Smart Fan i CIA MIB tez mi nie działa w easytune5. Ale ta płyta nie pozwala na kontrolowanie obrotami wiatraków, więc np. w SpeedFun tez ta funkcja nie będzie działać 2. Mój dysk: Seagate 7200.7 Barracuda 160GB NCQ 3. W podglądzie zdarzeń systemowych mam coś takiego: "Podczas operacji stronicowania wykryto błąd urządzenia \Device\Harddisk0\D." Mam nadzieje, że to nie walnięty dysk tylko kwestia jakiejś chorej konfiguracji systemu spod znaku literek xp... EDIT Gdy wybiorę w „Standard CMOS Features”-> „IDE HDD Auto-Detection” dla jakiegokolwiek dysku sata (IDE Channel >1) wtedy BIOS wyświetla dziwne kolorowe krzaczki i się zawiesza… Dziwna sprawa, zważywszy na to, że BIOS podczas bootowania rozpoznaje dobrze wszystkie podłączone napędy. Też tak macie?
-
W moim wypadku zwiecha sprzętowa występuje nie tylko w ntune ale także, jak ostatnio zauważyłem, w SiSoftware Sandra Professional 2005->Information Module->ATA/ATAPI Information->i teraz wybieramy kontroler na którym znajduje się dysk twardy, u mnie jest to ATA Controller 2. Zawiesza się zaraz po wybraniu tej opcji lub za drugim razem!!! Sprzęt nie podkręcany, idealnie stabilny (prime i super pi wytrzymuja >10h), zasilacz cheftec 420W, płyta GA-k8nf-9, segate 160GB sata ncq… Wszystkie temperatury i napięcia w normie... Sugeruje to na problem z dyskiem, kontrolerem dysku, chipsetem płyty głównej lub sterownikami… Mam już tego dosyć, z tą płytą jest tyle problemów, że zaczynam powoli żałować zakupu… EDIT Wcześniej instalowałem najnowsze stetrowniki, ze strony nVidia do geforce4- nvidia nforce standalone drivers… Gdy chciałem dziś zainstalować sterownik chipsetu płyty głównej ze strony gigabyte, windows wyskoczył z… niebieskim ekranem śmierci i komunikatem o błędzie sprzętowym- stop… oO Szybki reboot i udało się jakoś te sterowniki zainstalować i Sandra już nie wiesza kompa, ale nadal bardzo skutecznie robi to ntune… Co jest grane? POZDRAWIAM, Łukasz P.
-
Właśnie chodzi o to, że mi nie chciały działać w jakiejkolwiek innej konfiguracji niż dualna- płyta się wieszała po rozpoznaniu dysków. Starałem się obsadzić 1024MB w singlu kombinując z wszystkimi 6 możliwościami obsadzenia slotów i za każdym razem to samo- płyta się nie bootuje… Dlatego musiałem zrezygnować z 2x512 single na rzecz 1x512 single… Te kości maja w SPD zapisane pracę na 333MHz 2.0-3-3-5 albo 400MHz 2,5-3-3-6... Wolę jednak tryb 400Mhz, sprawdzałem, że wtedy pamięć i cały system pracuje wydajniej.
-
Witam. U mnie komputer też się wiesza po odpaleniu ntune, mimo, że jest idealnie stabilny (przetestowany prime przez kilkanaście godzin…). Zwiecha sprzętowa- kursor przestaje reagować na ruchy myszką, dzwięk przestaje się wydobywać z głośników, nic nie odpowiada, nawet lampki od klawiatury nie można wyłączyć… Podobno ten programik współpracuje tylko z wersjami nForce4 Ultra & SLI… POZDRAWIAM, Łukasz P.
-
@k2rola- u mnie na 240MHz HTT(FSB), 1.425V, ram 166:200, sp2004 też wytrzymuje 2h bez problemu… jednak czasami potrafi wyskoczyć z błędem po 6h, po czym przy kolejnym uruchomieniu działa z 10h (więcej nie testowałem), po chwili wykrzacza się po 2,5h… Dziwna sprawa z tym prime, potrafi się zatrzymac z błedem (np. przy ustawieniu 250-260MHz na std napięciu) niemal po minucie podczas gdy wszystkie inne testy (Super PI, Hot CPU tester, 3dmark wskazują na idealną stabilność…) POZDRAWIAM, Łukasz P.
-
Jeżeli mam sprawdzić czy pamięci się kręcą to chyba lepiej przywrócić standardową szynę HTT 200MHz i wtedy pościć synchronicznie… Jak zmniejszę mnożnik procesora to procesor będzie pracował wolniej ale htt nadal pozostanie 240Mhz a przy tej szybkości nie jestem w stanie zmusić pamięci to pracy synchronicznej. Jedyna możliwość pracy synchronicznej to zmniejszyć właśnie fsb…. Swoją drogą porobiłem testy pojedynczego modułu pamięci (praca jednokanałowa) i niestety nie uzyskałem w ogóle lepszych wyników zaostrzania timingów- nic poza standardowe. Wiec albo mam pecha albo moja płyta (gigabyte ga-k8nf-9 nForce4-4x) nie pozwala na za dużo (podobno producent zablokował możliwość podkręcania w podstawowej wersji chipsetu nforce4, aby zwiększyć zapotrzebowanie na droższe chipsety?! <- ciekawe czy to prawda, bo procesor kręci się nienajgorzej)… W biosie oprócz standardowych timingów mam jeszcze jakieś: Row Cycle Time (tRC) 7-22 Row Refresh Cyc Time (rRFC) 9-24 Row to Row delay (tRRD) 2-4 Write to read delay (tWTR) 1-2 Read to Write delay (tRWT) 1-6 Refresh period (tREF) 1-4x1552-4672 Ciekawe, za co one odpowiadają, jak wpływają na wydajność systemu i jak zależą od pozostałych…
-
Test odczutu/zapisu pamięci to tylko testy teoretyczne, które zazwyczaj mają słabe odbicie w wydajności całego zestawu komputerowego. Pisząc o 3% miałem właśnie namyśli realny wzrost/spadek w zastosowaniach praktycznych (np. gry…), a takie zastosowanie próbowałem zasymulować za pomocą benchmarka graficznego najbardziej zależnego od procesora i pamięci- 3dmark2001se...
-
Magistrale ze standardowych 200MHz podkręciłem o 20% do 240Mhz co przy mnożniku x10 dało mi procesor 2400Mhz (3800+), poniosłem jednocześnie napięcie na procesor o 0,025V w celu uzyskania lepszej stabilności. Pamięci pracują na dzielniku 166/200 to przy HTT 240Mhz daje im to prace na 199Mhz. Magistrale HT mam dodatkowo ustawioną na x3=960MHz… Próbuje cokolwiek wyciągnąć z 2,5-3-3-6, jak na razie mogę zmniejszać tylko ostatnią wartość, zmniejszanie pierwszych, najbardziej wpływających na wydajność nie bootuje płyty lub samego systemu operacyjnego. Nie pomaga także zwiększanie napięcia na DDR- maksymalnie mogę dorzucić +0.2V (na więcej płyta nie pozwala). Nic nie mogę zatem z nich wycisnąć. Pamięci dzielnie działały jednak na 260MHz FSB (HTT) uzyskując prace 216Mhz, jednak przy tak wysokim FSB nie mogłem uzyskać stabilnej pracy komputera (SPrime 2004 pokazywał błędy już po 1min, SPi też się kozaczył…). Pomagało tylko zwiększanie napięcia na rdzeń do nawet +1.0-1.5V, ale wtedy na standardowym chłodzeniu (BOX) procesor dość mocno się grzał. Niebawem, gdy będę miał trochę wolnego czasu, postaram się porobić testy z tylko jedną kością pamięci i zobaczymy czy to przypadłość moich pamięci, że nie pozwalają na zaostrzanie timingów… POZDRAWIAM, Łukasz P.
-
Sprawa wydajności pamięci dwukanałowych pod platformę AthlonXP była już wielokrotnie poruszana i jak wiemy pamięci dwukanałowe zwiększają (dwukrotnie) teoretyczny transfer danych na drodze kontroler pamięci (chipset- mostek północny) <-> pamięć DDR. Wąskim gardłem systemu jest jednak szyna FSB, która nadal pozostaje jednokanałowa skutecznie ograniczając wydajność transferu na poziomie mostek <-> procesor, niwelując wydajność pamięci dwukanałowej do i tak jednego kanału. Powoduje to wszystko, ze wzrost wydajności (jeżeli już występuje w jakiś zastosowaniach) to jest on ledwie zauważalny i wynosi ok. 1%. Dokładne testy i porównanie pod tym liniem: http://www.egielda.com.pl/?a=10&id=73 Zatem pamięci dwukanałowe pod platformę AthlonXP nie maja najmniejszego zastosowania. W przypadku procesorów Athlon64 kontroler pamięci został wbudowany w półprzewodnikową strukturę rdzenia i wraz z procesorami na S939 jest 128bitowy (dwukanałowy)- może, zatem czerpać pełną garścią z dwukrotnego wzrostu (teoretycznego) transferu pamięci pracujących w trybie dual. Jak zatem wygląda kwestia wydajności pamięci dwukanałowych pod platformę K8? Postaram się odpowiedzieć na to pytanie przeprowadzając kilka testów we własnym domowym zakresie. Maszyną testową jest: Athlon64 3200+ Winchester S939 2000MHz@2400MHz Geil Dual 2x512 MB PC3200 (DDR400) 2,5-3-3-6 Gigabyte GA-k8nf-9 nForce4-4x Gigabyte GeForce6600GT … Już na samym początku natrafiłem na duże problemy z moją płytą główną. Jak się okazało, tak jak w większości płyt, nie mam możliwości z poziomu biosu wyłączenia dwukanałowej pracy pamięci. Przekładanie kości pamięci pomiędzy portami skutkowało praca dwukanałową (obsadzenia dwóch różnych kanałów) albo w ogóle problemami z odpaleniem komputera przy takiej konfiguracji. Zatem nie mogłem wymusić pracy jednokanałowej przy użyciu dwóch pamięci. Ostatecznie postanowiłem testować pamięć jednokanałową przy użyciu tylko jednego modułu pamięci o pojemności 512MB. Jednocześnie będąc świadomym, że spadek wydajności może być nie tylko spowodowany pracą jednokanałową, ale także dwukrotnie mniejszą ilością pamięci systemowej. Przystępujemy, więc do dzieła: |Sandra| - testy syntetyczne procesora (Arithmetic i Multimedia benchmark) nie wykazały żadnej różnicy w wydajności (i imo nie powinny) zatem je pomijam - memory benchmark: Int Alu: 3021 MB/s (single); 5899 MB/s (double) Float FPU: 2020 MB/s (single); 5855 MB/s (double) Jak widzimy transfery pamięci wzrosły niemal dwukrotnie. Potwierdza to także kolejny test: |Everest| - odczyt z pamięci: 3008 MB/s (single); 4332 MB/s (dual) - zapis do pamięci: 1146 MB/s (single); 2328 MB/s (dual) - czas oczekiwania pamięci: 60,4 ns (single); 62,1 ns (dual) <- dziwne?! Dzięki pracy dwukanałowej zyskuje bardzo zapis do pamięci… Teraz trochę testów wydajności samego procesora w zastosowaniach praktycznych: |Super PI| - 2M 90 sek (single); 85 sek (dual) Zatem zauważalny wzrost wydajności o 5,5%. |Winrar| - pakowanie jednego pliku divx 700MB, kompresja normal: 10:45 min/sek (single); 10:05 (dual) W trybie dwukanałowym otrzymaliśmy kompresję szybszą o 40 sek, co daje wzrost rzędu 6%. Jak widzimy, nowe procesory A64 lepiej sobie radzą z wykorzystaniem przepustowości pamięci Dual niż starsze A-XP. Różnica nie jest duża (wbrew temu, co większość osób głosi, że nowe procki dostają dużego kopa) ale zauważalna i dostrzegalna w testach praktycznych procesora. Podobną różnice wydajności rzędu 5-6% dostaniemy przetaktowując przykładowy procesor z 2000Mhz do szybkości ok. 2120Mhz… Czas na sprawdzenie jak Dual wpływa na wydajności gier: |3Dmark’s| -2001se: 20022 (single); 20848 (dual) <- wzrost o 4% (test wrażliwy na procesor i szybkość pamięci) - 2003: 8708 (single); 8846 (dual) <- tylko 1,5% - 2003 CPU test: 912 (single); 1046 (dual) <- wzorst o 14%!!!! - 2005: 3499 (single); 3529 (dual) <- w ramach błędu pomiarowego Im nowszy benchmark tym większy wpływ na wydajność samej karty grafiki a mniejszy zastosowanego procesora i rodzaju pamięci… Kolejne testy zostały wykonane w samych już grach. Należy jednak pamiętać o dużym wpływie zredukowanej ilości pamięci podczas testów (single-512MB, dual-1GB). |Doom3| 1280x1024 HQ: 67,0 fps (single 512 MB); 68,1 fps (dual 1024MB) Wyniki są dla mnie sporym zaskoczeniem, myślałem, że gra bardziej odczuje braku 512 MB ramu… test działał jednak płynie bez udziału pracy dysku, można zatem przyjąć, że 1 fps wydajności gra zawdzięcza pamięciom dual |Far Cry| UQ 1024x768: 46,2 fps vs 56,4 fps 1280x1024: 40,9 fps vs. 52.9 fps W tym wypadku ilość ramu miała kolosalne znaczenie- farcry podczas wykonywanego testu przy pomocy „HardwareOC Far Cry Benchmark” intensywnie i dość często korzystał z hdd, zatem w tej grze dodatkowe 512MB daje dość wyraźnego „kopa”. Podczas całej „zabawy” miałem możliwość sprawdzić jak się sprawuje system z 512MB i 1024Mb ram na pokładzie: Ze zredukowana ilością ram: - gry się zauważalne dłużej ładują - dysk więcej rzęsi i windows dużo wolniej (nawet 2 razy) zamyka gry; przełączanie się miedzy nimi a pulpitem odbywa się niemal natychmiastowo z 1GB ram na płycie - praca z samym windowsem jest mniej płynna, ale nadal bardzo komfortowa - w nowszych grach farcry, d3, hl2 występują przycięcia i skoki fps bez dodatkowej kości Małe refleksje z mojej strony: - Jeżeli ktoś waha się między kupnem 2x256 i pracą w dualu a 1x512MB to imho drugi zakup jest bardziej opłacalny. Z tego względu, że tak naprawdę dual daje nieznaczny wzrost wydajności 5-6% w aplikacjach i prawie żaden w grach (które i tak zależą od wydajności karty grafiki). Kupując jedną kość umożliwiamy sobie w przyszłości łatwą rozbudowę o kolejne 512MB i uzyskanie dużego wzrostu wydajności w grach… Jest to o tyle ważne, jeżeli uwzględnimy fakt, że płyty z możliwością pracy dwukanałowej nie umożliwiają prace na 3 modułach pamięci (nawet się nie będą bootować)- przynajmniej tak jest w nforce4, o innych chipsetach nic mi nie wiadomo. Ponadto pamięci single kręcą się dużo lepiej i umożliwiają ustawienie bardziej ostrych timingów od pamięci dualnych… - A64 3200+ pod socket 754 taktowany 2200Mhz jest wydajniejszym procem od wersji pod S939 i taktowanej 2000Mhz gdyż dwukanałowa praca pamięci nie jest w stanie nawet zbliżyć się do osiągów, jakie daje dodatkowe 200Mhz wydajności. Potwierdzają to nie tylko moje spostrzeżenia, ale także liczne testy i porównania w sieci… Warto także rozważyć idee tak zwanej „przyszłościowości”, czy przypadkiem nie opłaca się brać tego, co w danej chwili ma najlepszy stosunek możliwości do ceny nie zwracając uwagi na to, co deklarują producenci odnośnie danej platformy… Dlatego imo zakup procesora na platformie s754 z ekonomicznego punktu widzenia jest bardziej opłacalny (większa szybkość modeli procesorów oznaczonych tym samym numerem PR, możliwość kupienia wersji oem, mniejsze koszta samego procesora (minimalnie) oraz płyty głównej). POZDRAWIAM, Łukasz P.
-
Lol, Wróbel- problemy z rozumieniem tekstu pisanego?! Wiem, co napisałem- wydajność systemu spada po WYŁĄCZENIU 1T, i nie o jakies 10-15% ale o zaledwie 3%. Radzę na przyszłość dokładnie i powoli czytać tekst ze zrozumieniem… POZDRAWIAM, Łukasz P.
-
Witam, Mam pamięci Dual Geil 2x512MB PC3200 (DDR400) cl2,5-3-3-6. Spotykam się w różnych komentarzach, że te kości pozwalają na duża zmianę timingów: 2-3-3-6, 2,5-2-2-5; 2-3-3-3 bez nawet podnoszenia napięcia; 2,0-5-1-1 na 2,9V, oraz, że kręcą się bez problemu ponad 433Mhz. Wszystkie te komentarze dotyczyły jednak pojedynczych pamięci. U mnie pracują one w dualu i nic nie mogę z nich wycisnąć poza standardowe timingi, kości się nic grzeją (są letnie nawet po podnoszeniu napięcia) ale ustawienie cl2,0 nawet przy pozostałych zawyżonych timigach to wyczyn niemożliwy w moim wypadku. Mam pecha bo trafiłem na gorsze (do kręcenia) pamięci czy w dualu pamięci zawsze mają opór przed optymalizacją? Mój sprzęt to: A643200+ Winchester S939 2000Mhz@2400Mhz (1,425V) + Gigabyte GA-k8nf-9 nForce4-4x… POZDRAWIAM, Łukasz P.
-
Oto, co udało mi się znaleźć w necie na temat Command Rate: “Tempo poleceń CMD (ang. Command Rate) (1/ 2) (Command Rate, MA 1T/2T Select) Liczba cykli zegarowych, jaka musi minąć przy adresowaniu modułu pamięci i układu pamięci zawierającego strefę z żądanymi danymi. Jeśli zapełnione są wszystkie banki pamięci, będziecie musieli podnieść ten parametr do wartości "2", co spowoduje znaczny spadek wydajności” „Liczba używanych przez was modułów pamięci będzie miała bezpośredni wpływ na tempo poleceń (ang. command rate). Tempo to określa liczbę taktów zegarowych, jakiej potrzebuje kontroler pamięci, aby aktywować dany moduł i układ pamięci. Jeśli zapełniliście wszystkie banki pamięci, będziecie musieli zwiększyć ten parametr z jednego na dwa cykle zegarowe, tak aby system działał stabilnie. Niestety osłabi to wydajność nawet o 3 procent.” Sam zrobiłem też kilka testów: |Sandra| Arithmetic Dherystone/Whetstone: 10166/ 3892/ 4995 (2T); 10152/ 3894/ 4997 (1T) Multimedia Integer/ F-P: 22614/24000 (2T); 22624/24301 (1T) Memory badwidth int/f-p: 4835/3820 MB/s (2T); 5902/5864 MB/s (1T) Jak widać ustawienie to wpływa znacząco tylko na transfer pamięci, benchmarki syntetyczne nie wykazują wzrostu wydajności (i nie powinny…) |Everest| Odczyt z pamięci: 4347 MB/s (2T); 4368 MB/s (1T) Zapis do pamięci: 1640 MB/s (2T); 2333 MB/s (1T) Czas oczekiwania pamięci: 31,7 ns (2T); 62,7 ns (1T) Jak widać wzrósł transfer podczas zapisywania ale kosztem dwukrotnego powiększenia czasu oczekiwania pamięci!!! Co zatem wybrać- większe transfery (1T) czy mniejszy czas oczekiwania (2T)?! Na to pytanie odpowie kolejny test- 3DMark2001se (bardzo zależny od procesora i pamięci)… |3Dmark2001se| Overall: 17682 (T2); 18076 (T1) Game Test1 Low/Med.: 276/101 fps (T2); 280/107 fps (T1) GT2 low/med: 296/184 (T2); 300/185 (T1) GT3 low/med: 253/122 (T2); 261/127 (T1) GT4 Nature: 62,8 (T2); 62,7 (T1) Jak widzimy, faktyczna wydajność po wyłączeniu 1T spada o 2-3%... POZDRAWIAM, Łukasz P.
-
W BIOSIE swojej płyty głównej (Gigabyte GA-k8nf-9 nForce4-4x) podczas szperania w ustawieniach pamięci zauważyłem opcję Command rate, która może przyjmować wartości 1T i 2T. Szukałem informacji na ten temat w necie i na forum, ale za dużo nie znalazłem. Wiem tylko, że 1T jest teoretycznie wydajniejszy oraz ustawienie to steruje czasem cyklu wykonywania komend (cokolwiek to jest :/). Co w ogóle zmienia to ustawienie w konfiguracji pamięci? Czy rzeczywiście 1T jest wydajniejszy i o ile? Na co wpływa to ustawienie- czas dostępu do pamięci, transfer odczytu, transfer zapisu? Czy włączenie T2 pozwoli lepiej kręcić pamięć lub osiągnąć lepsze timingi? Piszcie, co wiecie na ten temat. POZDRAWIAM, Łukasz P.
-
Witam. Ja na swoim nForce4-4x Gigabyte GA-K8NF-9 miałem ten sam problem, ale kombinowałem i w końcu wykombinowałem. Co prawda są to płyty na różnych chipsetach ale tego samego producenta i zapewne maja ten sam BIOS (lub bardzo podobny). Postepowanie (bez macierzy raid, pojedynczy dysk): 1. Wyłacz raid dla każdego ATA i SATA W „Integrated Peripherals” upewnij się, że wszystkie cztery “IDE Primary/Secondary Master/Slave RAID” są ustawione na “Disable this function”- tak jest domyślnie, więc jeżeli nic nie zmieniałeś to będzie ok. „SATA 1/2 Primary/Secondary” musisz zmienić na „Disable..” Spowoduje to, że podczas bootowania płyty nie bezie uruchamiany menedżer NVIDIA RAID i każdy dysk będzie widoczny jako standardowy dysk ATA. 2. Ustaw kolejność bootawania urządzeń W „Advanced BIOS Features” ustaw kolejność bootowania dysków: First Boot Device: Floppy Second Boot Device: CDROM Third Boot Device: HardDisk Mimo, że nie ustawiliśmy hdd jako pierwszego właśnie dzięki krokowi (1) i tak będziemy mieli możliwość bootawania z hdd. Po prostu najpierw wystartuje bootowanie z CDROM (instalka windy) z komunikatem cos w stylu „nacisnij klawisz w przeciągu 10 sek aby bootowac z CD…”, nic nie naciskaj i komp wystartuje z hdd. Jak nie zrobisz kroku pierwszego (nie wyłączysz NVIDIA RAID) to co byś nie kombinował płyta zawsze będzie bootować z cdromu pisząc komunikat „booting from CD…” (albo cos podobnego) 3. Nadal w „Advanced BIOS Features” wybierz „Hard Disk Boot Priority” i upewnij się, że twój dysk jest na pierwszym miejscu w liście (jeżeli masz jeden dysk to tak będzie, u mnie pojawia się tam jeszcze jedno urządzenie związane z bootowaniem poprzez USB) Postępując tym sposobem podczas instalowania windowa nawet nie jest potrzebna dyskietka ze sterownikami SATA!!! Jeżeli łączysz dyski w macierz RAID to podczas bootowania naciśnij F10 aby wejść do „RAID Setup Utlity” i tam ustawić macierze i ich bootowanie (więcej w instrukcji płyty) PS. Pamiętaj, że windows xp bez SP ma problemy z adresowaniem przestrzeni powyżej 128 GB na dysku twardym. Dlatego najpierw potwórz partycie na mniej niż owe 128 GB (najlepiej tylko jedną systemową) a następnie po instalacji systemu zainstaluj SP2 lub SP1 albo dokonaj odpowiedniego wpisu w rejestrze (było na forum). Dopiero wtedy potwórz pozostałe partycje… POZDRAWIAM, Łukasz P.
-
Oczywiście, że jest to prawdą, ale nie o kilkanascie-kilkadziesiąt procent jak jest to w wypadku frapsa (porównanie fps w poście otwierającym temat). Odkryłem, iż wszystkiemu winna była najnowsza wersja frapsa, z jakiej korzystałem (2.5.x). Trudno powiedzieć czy to przez bugi w nowej wersji czy dlatego, że program nie był zarejestrowany… Zmiana na starsza i zarejestrowana (sic :| ) wersje rozwiązała wszystkie problemy. Przesiadka na v2.1.0 spowodowała, że owy spadek wydajności nie występuje w ogóle albo w bardzo małym (pomijalnym ok. 1%) stopniu. Znowu odzyskałem zaufanie do frapsa… :] POZDRAWIAM, Łukasz P.
-
Witam, Wiem, że standardowo Microsoft dostarcza narzędzia do serwera DHCP tylko dla swoich sieciowych systemów operacyjnych takich jak NT, 2000... Internetowe Usługi Informacyjne pod win xp nie udostępniają tej możliwości. Jest jakieś inne narzędzie umożliwiające postawienie serwera pod windows xp? EDIT Już znalazłem, 2 godzinach szukania w sieci, jak się okazało, pochopnie umieściłem ten temat... Dla zainteresowanych: programik nazywa sie vdhcp (ma ok 230 KB) i działa w formie usługi, którą można konfigurować. POZDRAWIAM, Łukasz P.
-
Zawsze używałem tego programiku w grach, ale jak się okazało w niektórych zastosowaniach potrafi on zaniżać ilość fps (w moim wypadku), i co najgorsze strata wydajności jest znaczna i zauważalna: FarCry Benchmark: 40 fps (z fraps); 53 (bez fraps) 3Dmark2005: 2850 punktów (z); 3450 (bez fraps) Game4 Nature z 3DMark2001SE: 80 fps (z fraps); 103 fps (bez) Testowałem także wydajność w innych grach i stwierdziłem, że problem dotyczy całej serii 3DMark i przynajmniej jeszcze half life 2, natomiast nie dotyczy np. EnemyTerritry i Doom3. Czy spotkaliście się już z podobnym problemem? Czy problem występuje u was? Dlaczego tak się dzieje? Dlaczego tylko niektóre programy tracą na wydajności? Czy to wina sterowników? (działam na angielskiej wersji 66.93 i GeForce6600GT). POZDRAWIAM, Łukasz P. PS. O innym problemie, z jakim się spotkałem znacznie wpływającym na wydajność można poczytać w innych tematach mojego autorstwa: http://forum.purepc.pl/index.php?showtopic=115194 http://forum.purepc.pl/index.php?showtopic=115545
-
Dobrze wiedzieć, że powyższy problem dotyczy nie tylko mojej konfiguracji sprzętowej… Zatem najprawdopodobniej wszystkiemu winne są sterowniki. Ja używam wersji 66.93 ale jak tylko będę mógł to przetestuje jakieś starsze lub bety z serii 7x.xx. Wpływ frapsa i sterowników mogę sprawdzać tylko w benchmarkach z serii 3dmark oraz gier które mam zainstalowane (które dodatkowo pozwalają na benchmarkowanie- doom3, farcry, et). Im więcej się tym bawię tym bardziej głupieje… Wpływ tej opcji w sterownikach widać w 3dmarku01 oraz doom3, natomiast farcry i marki 03 i 05 są „odporne” na to ustawienie… Wpływ frapsa na ilość fps wyraźnie widać w farcry (bez 53fps, z frapsem:40 fps) oraz całej serii 3dmarków… Doom3 jest „uodporniony” na frapsa… Najpierw nie mogłem zrozumieć jak tak z pozoru „niewinne” ustawienie może powodować zmniejszanie się fps niemal o polowe w 3dmarku. Później okazało się, że problem dotyczy nie tylko 3dmarka ale także innych gier. Odkryłem (w swoim wypadku) także wpływ FRAPSa na gry (którego często używam do grania). Najdziwniejsze jest to, że te dwa elementy maja wpływ tylko na niektóre gry/benchmarki a na inne nie… :/ Na razie można wyciągnąć wnioski, że problem dotyczy kart graficznych z serii 6xxx oraz sterowników 66.xx. Czy to wina tylko sterów, czy może coś innego? A może winnym jest Bill Gates (DirectX9.0c)?!
-
LOL… Właśnie odkryłem, że owo ustawienie w sterownikach miało nie tylko wpływ na 3dmarka 2001SE, ale także na najnowsze gry… Weźmy np. Doom3: 1280x1024 HQ - Referencyjny (taki sam) sprzęt: 55 fps - Mój sprzęt z włączoną opcja w sterach: 40 fps <- martwiłem się, także wcześniej dlaczego tu mam mało. Jak się okazało: - Mój sprzęt z WYŁĄCZONA opcja w sterach: 67 fps… Wszystkie rozdzielczości i ustawienia po wyłączeniu tej opcji wykazują 60% wzrost fps!!!!!!!!! Teraz to nawet 1024x768 +AAx4 i +AFx8 hula na 46 fps i to w Ultra Quality… (to gdy podkręcę swojego athlona64 z 2GHz na 2,4GHz i grafę o 10%) Mam prośbę: Przetestuje u siebie 3dmarka2001 i dooma3 przy włączonej i wyłączonej tej opcji. Zastanawiam się czy tylko to ustawienie zarzyna mój komp czy może maja tak stery (uzywam obecnie wersji 66.93) EDIT: Co ciekawe programik FRAPS (to pokazywania ilości fps w aplikacjach 3D) tez potrafi zaniżać wyniki wszystkich benchmarków z serii 3DMark… Bez niego 3Dmark2005: 3450, z nim: 2850. Test Game4 Nature w 3Dmark2001SE: z 103fps, bez: 90fps. To imo dużo jak na programik, który ma tylko wyświetlać ilość fps :/ Co ciekawe wpływ frapsa na doom3 nie udało mi się wykazac… Dziwne to wszystko oO POZDRAWIAM, Łukasz P.
-
Sucker- najwyraźniej się nie zrozumieliśmy… Mając na myśli nadpisywanie odświeżania w sterownika pisze dokładnie o tym samym, co ty mi proponujesz, tylko u mnie to się nazywa „Refresh rate overrides”, bo zainstalowałem Angielskie wersje sterowników zamiast wersji „International”… Zatem to rozwiązanie prowadzi do zmniejszenia wydajności w benchmarku i pomaga na razie tylko nadpisanie przez riva tuner… Jak pisałem wcześniej synchronizacja pionowa była pierwszą rzeczą która sprawdziłem i jest ona wyłączona w sterownikach (potwierdziłem wyłączenia w riva tuner) i samych programach testujących… POZDRAWIAM, Łukasz P.
-
Kareas- Wchodzą mi tylko stery 6x.xx bo wcześniejsze nie chcą się instalować gdyż nie rozpoznają mojej grafy 6600gt. Próbowałem już wiele wersji 66-72 i we wszystkich kicha. Lukk- nie przejmuje się 3dmarkiem2001 póki mi wszystkie gry wydajnie chodzą. Ale z drugiej strony taka kolej rzeczy budzi wątpliwość czy to tylko wina 3dmarka czy wszystkie gry pod directx7-8 chodzą na 50% swoich możliwości. Popatrz na test Nature: nowy sprzet pokazuje mniej fps niż stary. Musi być tego jakaś przyczyna… Próbowałem jeszcze wielu innych rzeczy: - ponownie zainstalowałem grafe na płycie - odinstalowałem riva tuner - ustawiałem sterowniki na default - kombinowałem z ustawieniami jak tylko można i nic… Aż tu nagle test nature poleciał na max swoich możliwości: 103 fps. Co jest grane myślę sobie?! Miałem jednak racje wcześniej to wina sterów lub samego 3dmarka… W sterownikach mam włączoną opcję „refresh rate overrides” aby nadpisywały standardowe odświeżanie ekranu 60Hz na maksimum tego co jest w stanie wyciągnąć mój monitor w różnych rozdzielczościach- 100/85Hz. Ten i wcześniejszy test nature pokazał 103 fps gdy owe nadpisywanie odświeżania nie zadziałało i test wystartował w 60Hz... Wyłączam zatem nadpisywanie odświeżania w sterownikach i 3dmark pokazuje 103 fps w teście nature, a ogólnie 20500 punktów (jest 60Hz). Włączam nadpisywanie (100Hz w 1024x768) ale fps w nature spada do 49fps a ogólna ilość punktów do 12600. Odkryliśmy, zatem w czym leży sedno sprawy!!!!!!! Co ciekawe nadpisywanie 60hz dowolną wartością powodowało zawsze znaczny spadek wydajności, natomiast wyłączenie nadpisywania pokazywało już dobrą ilość klatek i punktów. Nie ma to oczywiście zastosowania w 3dmarkach 03 i 05 i nowszych grach, bo tam ten problem nie występuje. Problem udało mi się przetestować jeszcze dla EnemyTerritory (opengl) i to go nie dotyczy. Nie wiem jak inne starsze gry pod DX7-8 ale na razie (póki nie przeprowadziłem innych testów) owa anomalia występuje tylko dla 3dmarka 2001se… Problem w sterownikach, 3DMarku2001se czy może w niekompatybilności tych dwóch rzeczy?! Dla świetnego spokoju nadpisywanie w sterach nvidii wyłączyłem i zastosowałem refresh overrider z riva tuner i wszystko jest OK. Wygląda na to, że jak wymuszę zmianę niestandardowego 60Hz przez sama grę lub inny programie to jest OK., ale jak przez stery nvidia to spada wydajność drastycznie…. (na razie w 3dmarku2001se tylko) Mam prośbę o przetestowanie czy podobnie spostrzeżenia ze sterownikami nvidii i opcją „refresh rate overrides” w nich zawartą powodują podobne spadki wydajności u was. PS. 1.Dlaczego jak windows wymuszę tryb 1024x768x32 w 100Hz to po wejściu do jakiejkolwiek gry w dokładnie tej samej rozdzielczości (3dmark) i tak wyświetli się w 60Hz??? 2.Czy znacie jakieś inne metody na omijanie 60Hz, bo rivatuner do poprawnego działania wymaga minimalizowania do systraya i uruchamiania razem z windą? REASUMUJĄC: „Refresh rate overrides” w sterownikach nvidia powoduje drastyczny spadek wydajności w 3Dmark2001SE?!!! PS2: Na koniec podaje dla zainteresowanych poprawne wyniki testów 3DMark2001SE: Game 1 Car Chase Low/High 301/105 Game 2 Dragothic Low/High 373/212 Game 3 Lobby Low/High 274/123 Game 4 Nature 103 Overall score: 20500 Dzięki za zainteresowanie tematem i odpowiedzi na mojego posta. POZDRAWIAM, Łukasz P.
-
Witam, przeniosłem się z Athlon 2200+ (1800MHz), 512 MB DDR266, Leadtek GeForceFX5700 256MB na A64 3200+ (2000MHz, S939, 512KB L2), 2x512MB DUAL GAIL 400MHz 2.5-3-3-6, Gigabyte K8NF-9 nVidia nForce4-4x, Gigabyte GeForce 6600GT, Chieftec 420W I oto, co uzyskałem w programach testujących: 3DMark2005: wzrost z 593 do 3470 (wzrost prawie 6x) 3DMark2003: wzrost z 2772 do 8736 (wzrost x3) Jak na razie wszystko poprawnie i tak jak powinno być, i byłoby pięknie gdyby nie… 3DMark2001SE: wcześniej 9166, teraz 12467 ?!!!!!!!!!!!!! lol? Jak porównywałem swoje wyniki do innych bliźniaczych konfiguracji to w testach ’05 i ’03 wypadałem nawet lepiej, natomiast wszyscy inni uzyskiwali >20 000 3Dmarkow w 2001SE… Najdziwniejsze jest to, ze jednego dnia tak namieszałem, że uzyskałem owe 20 500 (bez instalacjo nowych sterów) ale następnego dnia wynik znowu oscylował w granicach 12 000. Moje pytanie brzmi, co jest grane? Dlaczego ’05 i ’03 odnotowują znaczny wzrost wydajności a ‘01se w tych samych warunkach testowych uzyskuje wynik mocno zaniżony o 8000?! Wszystko byłoby fajnie gdyby podobna anomalia występowała tylko w tym benchmarku, jednakże wszystkie nowe gry dostają kopa (farcry, doom3, half life 2) tymczasem stare gry pod directx7-8 i opengl zyskują tylko trochę na wydajności (np. ET, wzrost wydajności zaledwie 20-30%, a powinno być ponad 100%...) Dla porównania wyniki w kolejnych testach 2001se: Game 1 Car Chase Low/High 138 / 48 211 / 105 fps Game 2 Dragothic Low/High 157 / 95 163 / 124 fps Game 3 Lobby Low/High 124 / 54 174 / 100 fps Game 4 Nature 50 fps 49 fps <- chyba jakiś żart?! Sprzęt jest na 99% sprawny i jestem prawie pewien, że to wina oprogramowania/ sterowników/ konfiguracji programowej. Tylko co?! Wykluczam następujące sprawdzone możliwości: - zainstalowane najnowsze sterowniki do płyty głównej nForce4 i detonatory dla geforce - nowo zainstalowany system z SP2 i wszystkimi uaktualnieniami - sprzęt nie podkręcany - na pewno wyłączona synchronizacja pionowa w sterownikach! - na pewno wyłączone AA i AF - killowane wszystkie procesy użytkownika przed testami Dziwi mnie to, że 3dmarki ’03 i ’05 odnotowują znaczny wzrost wydajności (zgodnie z przewidywaniami wg porównań z innym bliźniaczym sprzętem- można zatem wykluczyć uszkodzenie sprzętu lub jakaś zła konfiguracje sprzętową) natomiast sam ‘01se zaniża mocno wyniki (widać po chociażby po ostatnim teście gdzie ilość fps nawet spadła :/) Nie wiem, co już mam o tym myśleć. Pomocy… POZDRAWIAM,
-
Moje spostrzeżenia: 1. Moja płyta ma tylko pasywne chłodzenie w postaci dużego bogato użebrowanego radiatora (trudno powiedzieć czy z miedzi), który strasznie się grzeje- temperatura wzrasta do tak dużych wartości, że można się oparzyć. Brak wiatraczka był dla mnie dużym zaskoczeniem, gdyż na wszystkich zdjęciach płyt (recenzje, benchmarki, testy) chipset miał firmowy wiatrak. Ponieważ nie lubię wysokich temperatur na wspomniany radiator założyłem mały wentylatorek, który zdecydowanie powoduje obniżenie temperatury. Wpływ wentylatorka na stabilność nie udało mi się wykazać… Jak to jest, że część płyt jest z wentylatorkami a część ma tylko chłodzenie w postaci radiatora?! 2. Bardzo niestabilne napięcie (rosnące w kosmos do 1.7V) przy ustawieniu vcore: normal i podkręceniu FSB. Pomaga ręczne ustawienie 1.4V ale wtedy C’n’Q nie obniża napięcia. + Anomalnie podczas pracy wiatraczka systemowego. Przestaje się kręcić na chwile po włączeniu komputera, a przy wyłączonej opcji „smartfun” ilość obrotów się zmienia między 1500, 3000, 4000 bez względu na temperature… weird?! Więcej na ten temat w innym moim poście: http://forum.purepc.pl/index.php?showtopic=113013 3. Nie znalazłem jeszcze programu, który dobrze by pokazywał wszystkie parametry pracy tej płyty. Tylko 3 napięcia są pokazywane dobrze i tylko 1 temperatura- na CPU. Po podkręceniu FSB sandra podaje bzdurne informacje o przepustowości pamięci 158%, i złych częstotliwościach HT, fsb, ddr…. Wina biosu, płyty, czyjników czy tych programów?! 4. Moje osiągi OC: - FSB na 260MHz =proc 2600MHz (A643200+, 2000MHz = FSB200 x10, S939, 80nm, 512KBL2) grzał się do temperatury ponad 43 stopnie - obecnie pracuje na FSB 250, co daje 2500MHz i ok. 25-26 stopni w idle i max 36 w stresie, vcore: 1.4V, HT x4=1000MHz Wszystko na boxowym wentylatorku z obrotami ok. 3000-3200 rpm. Pamiątki GEIL Dual 2x512 PC3200 400MHz… Pamięci działają na dzielniku 200/166 i osiągają 416 MHz przy fsb250 i timingach 2,5-3-3-6 Komp zachowuje się stabilnie i pomyślnie przechodzi 12h testy 3dmarkiem i hot CPU tester, ale pokazuje błędy w prime95 już po 1 min. :/. Będę musiał pokombinować i zobaczyć, co powoduje te błędy. Pamięć pomyślnie przetestowana memtest 3.0 nie wykazuje błędów. Czy możliwą jest błedną praca tego programu czy coś jest jednak nie tak z podsystemem pamięc-proc-płyta? EDIT Oto, co robiłem, aby uzyskać poprawne działanie Super Prime 2004: - zmniejszenie szyny HT x4 (1000Mhz) do x3 (750Mhz) nic nie pomogło - dodatkowe zwiększenie napięcia o +0,1V na Core Power Voltage Control nic nie pomogło. A tak swoją drogą co to jest?! Napięcie na chipsecie płyty głównej? - tylko zwiększanie napięcia vcore dawało wymierne rezultaty: FSB 250Mhz: a) vcore 1.5V, płyta pokazuje nawet 1.6V, maks temp proca: 43, SP2004 wytrzymuje ponad 10 min. Jak dla mnie temperatura za wysoka i dlatego kombinowałem dalej… B) vcore 1,45V, na płycie: 1.5v, maks temp ok. 40, SP przebrnęło przez test1 jednak i tak wykrzaczyło się po ok. 6 min :/ Zmniejszyłem FSB do 240MHz c) vcore 1.4V (standardowe), na płycie 1.45-1.47, maks temp 37, SP2004 wytrzymuje ponad 20 min (więcej nie testowałem) Reasumując: - dla tej płyty i proca 240FSB to max, co można wycisnąć bez zwiększania napięcia - jeżeli chce się mieć >= 250FSB wymaganie jest zwiększenie napięcia o 0,1V ale wtedy temp może podnieść się nawet o 7 stopni, zatem konieczne wydajne chłodzenie, lepsze od tego BOXowego - ogólnie zauważyłem, że prime liczyło dobrze dla temp proca <<40 stopni, dla większych pojawiały się niemal natychmiastowo błędy… Dlaczego na tej płycie występują aż tak durze rozbieżności napięcia ustawionego w biosie i odczytywanego przez czujniki?! Czy to wina płyty czy może złe odczyty czujników? POZDRAWIAM, Łukasz P.
-
Ga-k8ns-939 I Amd64 3000, Nie Działa Cool'n'quiet?
TheOne odpowiedział(a) na nowak43 temat w Podstawowe Zagadnienia
Moje spostrzeżenia: 1. Wariuje vcore dla ustawienia normal i podkręcaniu FSB. C’n’Q działa dobrze tylko dla Vcore ustawionego na „normal” i to bez podkręcania FSB. W przypadku podkręcenia fsb >220MHz płyta nie trzyma już tego normalnego, rozpoznanego przez siebie napięcia jako 1.4V. Napięcie to wzrasta nawet do 1.6-1.7V co powoduje szybki wzrost temperatury proca nawet powyżej 50 stopni :/ (na stałym vcore 1.4V mam ok. 30 stopni w stresie). Czym może to być spowodowane?! W przypadku podkręcania pomaga ręczne ustawienie 1.4V ale wtedy C’n’Q nie redukuje napięcia. Czy można ta płytę zmusić do poprawnej pracy z C’n’Q i do trzymania max napięcia 1,4V? Mnie się ta sztuka nie udała… 2. Anomalne zachowanie BOXowego wiatraka procesora. Przy włączonym smartfun w biosie kilka chwil po włączeniu zasilania wiatrak przestaje w ogóle pracować (w połączeniu z „CPU FAN Fail Warning” płyta ostrzega o tym denerwującym piskiem, monitoring wskazuje 0rpm a po rozkręceniu obudowy wiatrak stoi). Po kilku sekundach (różnie, czasami przed załadowaniem windy, czasami w trakcie, czasami po) wszystko wraca do normy i wiatrak z powrotem zaczyna się kręcić. Raz zdarzyło się jednak, że aby wiatrak załapał musiałem dokonać resetu kompa. Co ciekawe, zdarza się to tylko podczas włączania komputera, resetowanie nie wywołuje tej anomalii. O co tu może chodzić?! Dodam także, ze mimo włączonej opcji smartfun bez względu na temp proca (23-36) wiatrak zawsze kręcił się z szybkością ok. 3000-3200 rpm. Po wyłączeniu w biosie tej funkcji (smartfun) wentylator działa zawsze i problem znika. Jednakże z niewiadomej mi przyczyny wentylator czasami zmienia ilość obrotów na 1500 lub 4000rpm niezależnie od temperatury… Błędne odczyty wykluczam, bo faktycznie przy 4000rpm poziom generowanego hałasu rośnie niemiłosiernie przekształcając komputer w mini odkurzacz… Ilość obrotów w zależności od temperatury jest kontrolowana przez płytę czy przez sam wiatrak? Ktoś jeszcze spotkał się z takimi dziwnymi dla tej płyty właściwościami?