Skocz do zawartości
Caleb

Intel LGA1150 - Intel Core 4 / 5 GEN (Haswell / Broadwell) - Temat zbiorczy

Rekomendowane odpowiedzi

29 minut temu, Trylobit napisał:

Jeszcze są xeony haswelle, całkiem spory wybór i ceny niezłe, np. E3-1241 v3, nie ma problemu z tymi xeonami na zwykłych płytach dla śmiertelników jak ta msi gaming 3 z97?

to tez jest rozwiązanie , i jest na liście obsługiwanych CPU przez płytę główna (mam nadzieje z bios masz najnowszy dostępny wgrany, 2.A z 2016r. ?), co do temperatur, to mam w ręku E3-1225v3 czyli 4r/4w i zintegrowana grafika, i po zdjęciu IHS tez była zwykła pasta czyli glut.

https://pl.msi.com/Motherboard/Z97-GAMING-3/support#bios

https://pl.msi.com/Motherboard/Z97-GAMING-3/support#cpu 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Witam fachowcow!

Otoz mam taki problem z temperatura procesora.
Mam Chlodzenie Scythe Mugen 2 Rev. B + jeden wentylator 120mm be quiet. (skierowany do wewnatrz radiatora)
Procesor to Intel i7 4790K (socket 1150 LGA)
MOBO - MSI z97 Gaming 3
32gb ram
Windows 10.

Ostatnio zmianilem paste na procku na Thermal Grizzly.
W Idle mam okolo 35 stopni (nawet przy ustawieniu win10 na Power Save)
Gdy robie stress testy procka np w prime95 lub innych.
Temperatura podskakuje w ciagu 3-5 sekund do 98 - 100 stopni celciusza.
Po kilku sekundach wylaczam stress test bo nie chce spalic processora.

Wiecie w czym moze byc problem? Wiem ze to bardzo stary procek ale bez przesady!
Czy jak doloze jeszcze jeden wentylator na radiator to czy to moze pomoc?

Edytowane przez radi0n

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 Cześć. Sprawdź mocowanie chłodzenia tzn docisk czy prawidolowo siedzi no i druga sprawa to nałożenie pasty.. Zdjąłbym wszystko i założył jeszcze raz. Możesz sie posiłkować jakimś filmem  instruktażowym z YT jak prawidłowo nałożyć pastę i założyć radiator. Starą pastę rozumiem usunąłeś i przemyłeś proca jakimś środkiem? Miałem tego cepa i nigdy się tak nie grzał nawet w stresie (kręciłeś go?). Sprawdź ustawienia  obrotów wentylatora. Daj znać czy coś pomogło. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Po pierwsze dziekuje za odpowiedzi.

 

NIe nigdy nie byl procesor krecony.

Przed dodaniem nowej pasty stara usunalem i oczyscilem specjalnym alkoholem powierzchnie procka i radiatora.

Docisk wydaje sie poprawny. 

No nic jutro bede musial poswiecic pol dnia na ponowne rozlozenie. Dam potem znac

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jezuńu! W zyciu nie dam rady zrobic sam czegos takiego. W 97% pewnie zniszcze procka.

Dodam jeszcze ze robilem testy w:

W Cinebench24 w tescie MultiCore temperatura oscylowala pomiedzy 82-92 stopnie C.

W OCCT przy defaultowych ustawieniach po kliknieciu start (CPU test) temperatura od razy wskoczyla na 98-99 stopni

W OCCT przy cpu+Ram podobnie jak w Cinebench -75-92 stopnie

Edytowane przez radi0n

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zbieram na nowego kompa. Ale musze miec conajmniej 13k. Bledner grafika 3d i simracing na VR.

image.png.f4509680a835f85b2508b8304c02f202.png

image.png.bbffac882f855320ee692a5e891ad6f4.png

image.png.f4f6ccb0e2a1a71d3ffaa66fea3233bf.png

image.png.9762aee9388a565afb248fe39772281a.png

W zakladce MEMORY w cpuZ - uncore Frequency oscyluje pomiedzy - 400 a 4000 mHz

Bladego nie mam pojecie z czym to sie je ale moze Wam pomoze.

Bios mam ustawiony na default. Z tego co widac mam 105 i 120 a piszesz ze powinienem miec 88!

Komputera uzywam w 90% na zbalansowanym profilu.

EDIT:

Zrobilem update BIOS do najnowszej wersji 2.10 z 2016 roku. Nowszego nie ma.

Po updacie PL1 PL2 Power limit jest takie same jak na w.w obrazku. Mam cos zmienic w biosie aby uzyskac 88w?

Po updacie dalem ustawienie defaultowe nowego biosa.

 

image.thumb.png.5f5093a01b6fefa9e2962ebc2a17e8fd.png

Edytowane przez radi0n

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Szkłem pupy utrzeć się nie da, jeśli delid jest wskazany to tego nie unikniesz. Jak Ci jakoś się nie pali i masz jajca ślij go do mnie, ogarnę Ci go ale przesyłki po twojej stronie.

delid.png

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przepraszam Panowie. Wiem ze to zenada robic zdjecie telefonem ale chyba PrintScreen nie dziala w biosie.

Mozecie mnie pokierowac co wlaczyc a co wylaczyc a co zmienic? Bylbym mega wdzieczny!

Ustawnienia biosu sa defaultowe. Jedynie co zmienilem to na "Advanced mode"

Co do wyslania procka to niestety nie moge zostac bez kompa.

1.jpg

2.jpg

3.jpg

Edytowane przez radi0n

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

13 godzin temu, radi0n napisał:

Gdybym jeszcze wiedzial gdzie to zrobic!

No ja myślę skoro Karro zasugerował obniżenie wydajności ( CPU ) poprzez ustawienia które musisz dokonać w bios oraz sprawdzanie stabilności przez około 1H myślałem że zobowiązał się w pewnym sensie że ci pomoże skoro już się udzielił : )). 

Ja w dalszym ciągu podtrzymam swoją wypowiedz, szkłem pupy utrzeć się nie da. Tylko trzeba to dosadnie zrozumieć.

Ponadto wrzuciłem Ci fotografię ze ściągniętą czapką procesora 8700K gdzie nieco młodszy jest, procesor nie podkręcany twój nieco starszy, skoro w 8700 już masz można powiedzieć ( kamień, popiół na rdzeniu ) to o jakiej przewodności cieplnej tutaj jest mowa ile W/mk może taka pasta już mieć, kilka procent ?. Odpowiedź sobie na to pytanie. Stąd moja poprzednia wypowiedź.

Tutaj niektóre osoby się wypowiadały że tego procesora nie opłaca się już poddawać delidowi. Ja się z tym nie zgodzę, z tytułu takiego że ten procesor uważam w dalszym ciągu za atrakcyjny pod względem takim że bezproblemowo odpalam na tym W7/W10 na płycie Z97 i do pracy ( uwierz mi do pracy jak wół ) nadaje się bardzo 😉 . A dodam jeszcze tak ironicznie z deka że nawet nie wiesz ile pieniędzy jeszcze raki procesor potrafi zarobić. Pozdrawiam : )) ( Nie pisze tutaj oczywiście o grach )

Edytowane przez P3ch

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Witam. Mam i5 5675c i 1060 6GB. Chciałbym zmienic karte na rtx 3060. Wiem że jest bootleneck jakieś 45% wg kalkulatora online i uzycie procesora byloby 100%, ale czy daloby by to rade pociagnac 60 fps w 1080p?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zależy od gry i ustawień. Crowd density, LOD itp.  4c/4t może być cieżko o stałe 60fps. Natomiast jest na to sposob. Z tym, że zależy w co bedziesz grał, jeżeli w miare nowe gry to tam jest Frame generation. Jeżeli kupisz karte np. 4060 wystarczy najtanszy model. To prawdopodobnie FG bedzie Ci podwajał FPS. Czyli np procesor na 100% bedzie miał ok, 45fps, karta bedzie chodziła na 60% majac duze zasoby zrobic Ci z tego 90fps.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

2 godziny temu, maxmaster027 napisał(a):

Zależy od gry i ustawień. Crowd density, LOD itp.  4c/4t może być cieżko o stałe 60fps. Natomiast jest na to sposob. Z tym, że zależy w co bedziesz grał, jeżeli w miare nowe gry to tam jest Frame generation. Jeżeli kupisz karte np. 4060 wystarczy najtanszy model. To prawdopodobnie FG bedzie Ci podwajał FPS. Czyli np procesor na 100% bedzie miał ok, 45fps, karta bedzie chodziła na 60% majac duze zasoby zrobic Ci z tego 90fps.

Ja bym do tego tak optymistycznie nie podchodził. Frame generation dodaje wysoki input lag, zwłaszcza poniżej 60 FPS. Do jakiegoś symulatora lotu jest OK, ale jak grasz w jakiś RPG i zaczniesz obracać kamerą, skakać i robić uniki to może to być nie zbyt fajne.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wiesz, no ok, ale widac ze nie grales z FG od nv. Na monitorze OLED ~0.1ms gtg input lag (full black to white ~6ms)cieżko o lepszy wynik, z adaptive sync nie czuc w ogole opoznienia. Poza tym na drugim ekranie TV, TV ma~ 5ms gtg input lag (full pewnie z ~12ms) z VRR również nie czuc żadnego opoznienia. Wiecej laga da Ci jak bys przelaczył np pada z przewodu na bluetooth. Albo zapomniał wyłączyc enhancery na TV lub monitorze one robie rowniez input lag.  Natomiast jak podepniesz do jakiegos urzadzenia ktore juz na starcie ma input lag~ 20-30ms i grasz przez bluetooth to wtedy mozesz zauważyć jakas różnice. Uwierz mi na slowo(trust me bro :)), mam PS5 i tam jest bluetooth i 60fps, gra sie fajnie, nie powiem. Ale grajac na PC z VRR z 70fps z FG jest zauwazalnie nizsze opoznienie i wieksza plynnosc. Natomiast do CS2 to bym FG nie wlaczal ^^, bardziej do gier typu AW2, Starfield, Cyberpunk, Avatar, RDR2 tego typu gry 

Edytowane przez maxmaster027

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

1 godzinę temu, karro napisał:

a masz rtx 4000 czy liżesz prze papierek z FSR3?

FSR 3.1 już jest lepsze, ale to dalej nie jest poziom nV. Szczegolnie jesli chodzi wlasnie o inputlag i odczuwalna plynnosc. Nie chce sie zaglebiac w niuanse bo wiekszosc graczy nie ma o tym pojecia. Ale maja np. dobry TV powiedzmy 120hz ktory ma 10ms input lag, jest to przy 120hz, to przy 60 ma okolo 20ms. Zatem grajac np z 70fps masz 18ms input laga. Grasz w gry fabularne wiec uzywasz VRR/freesync/gsyncadaptive/adaptivesync dla zachowania wiekszej plynnosci. Wiadomo CS2 to 400fps bez zadnych doatkow i jak najwiecej Hz bez zadnych gsyncow. Ale normalne gry to wlanise VRR, daje odczuwalnie wieksza plynnosc jak rownież nie ma screen tearingu. FG od nV dodaje od 10 do 15ms. Przyjmujac te niekorzystna opcje czyli 15ms , 70fps 40ms + 18ms od TV = 58ms input lag, FG 70fps * 1.65 = 115FPS/Hz --> (40ms + 15msFG) 55ms + 10ms czyli wychodzi 65ms input lag. Zatem ta finalna różnica, odczuwalnego opóźnienia sygnału jest 58ms vs 65ms. Jednakże płynnosc jest o wiele wyższa co za tym idzie przyjemnosc z gry jest wieksza. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ta,Fsr do niczego sie nadaje to myslałem ze  choć generator klatek od amd jest ok.Właczam szybką gre wukong a tu i jedno i drugie o 3 półki niżej...

Teraz wiadomo skad takie opinie, jak sie korzysta z zamiennika i myśli ze u nvidii jest to samo.A te produkty dzielą sie na używalne i nieużywalne xD

Sprawdza sie generator klatek amd w wolnych grach typu The last of us,Alan wake 2 ale fsr w zadnej

Edytowane przez karro

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

15 godzin temu, karro napisał:

Fsr do niczego sie nadaje

To temat rzeka (przy czym nie wnikam w generatory klatek, a jedynie opisuję poniżej wrażenia ze zwykłego FSR/DLSS).

Generalnie DLSS i FSR nadają się do ekranów z wysokim PPI/rozdzielczością - przy typowej wielkości monitorach czyli od 23,8" do 31,5" to wypada mieć matrycę tak od 3840x2160 w górę. Wg. moich obserwacji, przy odległościach monitorowych, to DLSS/FSR zaczyna wyglądać dobrze na 31,5" 3840x2160 na ustawieniu Quality, na 27" 3840x2160 dobrze powinno być już na ustawieniu Balanced, natomiast na 24" 3840x2160 powinno być dobrze już na ustawieniu Performance (przy czym na tak małym ekranie, dzięki 4K, ostrość będzie już rewelacyjna).

Także jak ktoś odpala DLSS/FSR na 27" 2560x1440 nawet Quality i ma zbyt rozmyty obraz, to nic dziwnego - zbyt niska rozdzielczość bazowa, bo 1707x960 (odpowiada za poziom zniekształceń/rozmycia w ruchu), jak i wyjściowa nadal zbyt niska 2560x1440 (odpowiada za ostrość ogólną, głównie przy mniejszym ruchu/scenach statycznych).

Są gry, gdzie FSR lepiej spisuje się od DLSS:

DeathStranding - przy DLSS, jak stoisz nieruchomo w deszczu na samym początku gry, to znikają rozbryzgi kropel na kapturze bohatera - tego problemu nie ma przy natywnej i FSR. W zimowej rezydencji Hartmana są przy schodach poręcze pod którymi znajdują się prostokątne stykające ze sobą tafle szkła - przy poruszaniu widokiem lewo-prawo widać pionowe "stroboskopowe" odbicia/cienie tego pionowego podziału między taflami szkła - problemu tego nie ma przy FSR/AMD FX CAS jak i czystej natywnej.

Red Dead Redemption 2 - główny problem to nakładany filtr wyostrzający (nie da się tego wyłączyć) przy DLSS, ale tylko przy ruchu (np. jak obracamy widok) - jak stoimy w miejscu to tego filtra nie ma. Oczywiście problem filtra polega na tym, że wyostrzanie generuje pewne artefakty (efekt białej obwódki itp). Problemu tego nie ma przy FSR, jak i natywnej - bo nie ma wyostrzania.

Są też gry, gdzie DLSS spisuje się zupełnie prawidłowo, jak Midnight Suns

ps. wszelkie testy na ustawionym wyostrzaniu w danej grze, na zero/bez wyostrzania - bo wyostrzanie generuje nowe zniekształcenia

15 godzin temu, maxmaster027 napisał:

Grasz w gry fabularne wiec uzywasz VRR/freesync/gsyncadaptive/adaptivesync dla zachowania wiekszej plynnosci.

Może inaczej - VRR służy do nie pogarszania płynności w wyniku innej ilości FPS wzgl. częstotliwości odświeżania - tylko tyle i aż tyle. Jak ktoś ma >stały< fps, np. 60 i stałe odświeżanie, np. 60 Hz (klasyczne Vsync i fps nigdy nie spadający poniżej 60 - to wymaga odpowiedniej "kalibracji" ustawień), to będzie to tak samo płynne jak stałe 60fps@60Hz przy VRR/G-sync/FreeSync.

Edytowane przez Kyle

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

Ładowanie


×
×
  • Dodaj nową pozycję...