Jump to content

Leaderboard

Popular Content

Showing content with the highest reputation since 12/03/21 in all areas

  1. Cześć, otrzymaliśmy 17 czerwca 2022 informacje o wycieku następujących informacji z bazy danych: - login (nick) - email - hasło zapisane w postacie funkcji skrótu (tzw. hash z solą) które były podane w systemie forum.purepc.pl i / lub portalu www.purepc.pl. Co się stało? (opis charakteru naruszenia) Wg. ustaleń wyciekowi uległ stan na 22 maja 2018 roku a 20 czerwca 2019 część haseł, które były łatwe do złamania (proste hasła zapisane przed migracją oprogramowania forum IPB w 2017 na nowszą wersję, która zapewniała mocniejsze haszowanie) zostało opublikowane na wyspecjalizowanych stronach internetowych. Oznacza to, że w przypadku kont zarejestrowanych po 22 maja 2018 wskazane dane nie zostały upublicznione, a w przypadku zmiany hasła po tej dacie skrót dotyczył poprzedniego hasła. Jakie są możliwe konsekwencje naruszenia ochrony danych osobowych? (opis możliwych konsekwencji) Incydenty mogą skutkować wskazanymi niżej konsekwencjami, jednakże z uwagi na przebieg zdarzeń i zakres udostępnionych danych jest wąski, uważamy, że ryzyko poniższych konsekwencji jest bardzo niskie: - na adres e-mail mogą być wysyłane wiadomości w celach marketingowych bez uprzednio wyrażonej zgody (SPAM), - próby logowania (dostępu) do kont w serwisach internetowych, z wykorzystaniem tej samej pary loginu lub emaila i hasła W celu zminimalizowania ewentualnych negatywnych skutków zdarzenia warto rozważyć: - zmianę hasła do kont w serwisach internetowych, w których loginem był adres e-mail podany na forum.purepc.pl, a hasło było takie samo jak do konta na forum oraz korzystanie z unikalnych haseł do każdego serwisu, - nie klikanie w linki lub załączniki w wiadomościach przychodzących na adres e-mail podany na forum od nieznanych nadawców, w szczególności wykorzystujących logo PurePC.pl - zachowanie ostrożności przy podawaniu swoich danych innym osobom lub podmiotom, zwłaszcza za pośrednictwem Internetu, - skonfigurować w serwisie PurePC.pl oraz innych tzw. uwierzytelnianie dwuskładnikowe (Ustawienia -> Bezpieczeństwo konta). Podjęte działania W ramach serwisu wszystkie hasła zostały automatycznie unieważnione i dalszy dostęp do konta wymaga jego zmiany za pomocą linku z wiadomości z adresu forum_wysylka@purepc.pl o tytule "Wymagany jest reset hasła" lub samodzielnym wyborze opcji "Nie pamiętasz hasła?" na ekranie logowania. Nowo utworzone hasła będą domyślnie zapisywane z użyciem nowszych, bezpieczniejszych funkcji skrótu. Usuwanie konta W celu trwałego usunięcia konta na forum proszę kliknijcie stosowną opcje w ustawieniach konta - https://forum.purepc.pl/settings/deletemyaccount/
    5 points
  2. Raczej paru plugawych starców, którym w przebłyskach demencji świta, że coś takiego jak forum PPC kiedyś było i dało się tam wypisywać brednie. No ale im więcej politycznej poprawności i cenzury prewencyjnej na FB, tym większa szansa na renesans miejsc w sieci, pozbawionych tego wątpliwego udogodnienia.
    5 points
  3. Sorry, że nieco pesymistycznie, ale "kwota musi być wykorzystana w całości (bo niewykorzystane środki przepadną)" - czyli mimo, że nie potrzebuję, to kupię sprzętu za 10k więcej, mysza 400+, klawa 400+, no bo rozdajo... Jak ma być dobrze w tym kraju z takimi programami "na start" 😕 Abstrahując od tego, to skupiłbym się na tym co napisał MiG29 - najdroższe sprzęty bierzesz te, które powoli się starzeją. Przede wszystkim to monitor(y) kupujesz na lata. Ale zaraz - dobrze widzę, że te Iiyama 27" to 1080p i chcesz brać takie dwa? No nie, nie i jeszcze raz nie 😉 27" to się bierze 1440p... Sprawdź jeszcze twój punkt 20, czyli artykuły eksploatacyjne - mieszczą się w dotacji? Upewnij się.
    3 points
  4. Wstrzymajcie konie 😛 @reydenMusiałeś pomylić chipsety, Z97 był pierwszym Intelowskim chipsetem natywnie wspierającym bootowanie z NVMe @michal_fm Te 980 Pro będzie działać na Twojej płycie. Na pół gwizdka (PCIE 3.0 x2), ale będzie na pewno szybsze niż SATA. Manual do mobo podaje, że slot M2 jest domyślnie wyłączony w UEFI - trzeba włączyć (strona 1-31). https://dlcdnets.asus.com/pub/ASUS/mb/LGA1150/Z97-A/E9378_Z97-A_UG_V2_WEB.pdf
    2 points
  5. Z ww. kart to albo zwykły rx6600 albo dołożyć do wersji XT .
    2 points
  6. Jak budowałem niesłyszalne PC, to z powodu szumów elektroniki najlepiej sprawdzają się zabudowane obudowy z wyciszeniem w środku, z możliwie największym wentylatorem z tyłu pokroju 140mm (Fractal Define, be quiet dark base 700/900 ). Przy obudowach z perforacją z przodu i/lub otworami z góry (bez labiryntowego kanału, który by pochłaniał dźwięki), czy otworu z boku od strony użytkownika, wszelkie szmery elektroniki będą znacznie łatwiej słyszalne. Kolejna sprawa, to im więcej mocy w obudowie w postaci ciepła, tym trudniej to schłodzić. i5 13600K - ciemno to widzę. Może i schłodzisz, ale temp. pracy przy obciążeniu będzie wysoka (jeśli ma to być bardzo cicho chłodzone). i3 13 generacji schłodzisz sądzę bez problemu (jeszcze chyba ich nie ma), ale nie będzie tak szybki jak to i5 13600K. Można by ew. jakiegoś 13400 lub 12400 (łatwiej to schłodzić niesłyszalnie) ps. jeśli chcesz produkować muzykę, to moim zdaniem PC powinien być niesłyszalny (mix na monitorach studyjnych, a nie na słuchawkach ... na słuchawkach, to można sobie posłuchać na zakończenie, jako alternatywny odsłuch)
    2 points
  7. Decyzję o wymianie GPU odwlekałem bardzo długo, ale miałem ku temu powody: - mój mocno wysłużony GTX 980ti dalej dawał radę w 1080p (trochę więcej o tym poniżej, ale ogólnie tu i tam byłem gotowy na kompromisy w ustawieniach); - ceny GPU uwarunkowane masą czynników (cena dolara, krypto, pamięci itd.). Mój domowy PC nie służy mi do pracy z obróbką video (czasami się zdarzy) czy czymkolwiek bardziej wymagającym. Jego profili to: - 50% Web + multimedia; - 30% gry 1080p; - 10% obróbka video i zdjęć (Davinci Resolve/Capture One); - 10% Gry VR (Oculus Quest 2 w Air Link). Wspomniana karta GTX 980ti to topowe wydanie, co ma spore znaczenie, gdyż te karty bardzo dobrze się kręciły, a fabryczny ZOTAC GTX 980 Ti AMP! Extreme Edition nie miał sobie równych po wyjściu z fabryki – zegar boost 1430mhz. Jak to się ma do innych kart. VR Mark przyszedł tu z pomocą i tak ot, ten fabryczny Zotac z zegarem 1410mhz (zegar efektywny - osiąganym ciągle) jest w: - Top 7% w GTX 980ti;- - Top 17% w GTX 1070ti; W suchych liczbach dotyczących całkowitej wydajności GPU (obliczenia dla zegara efektywnego 1410mhz), wygląda to tak (same wyniki testów w porównaniu bezpośrednim z RTX 3060ti niżej): FP32 (float): 7,94 TFLOPS Pixel Rate: 135,3 GPixel/s Texture Rate: 248,2 GTexel/s To wszystko powyżej przy maksymalnym poborze mocy: 375W Podjąłem jednak decyzję o wymianie GPU. Jasne było dla mnie, że z uwagi na okazjonalną pracę w domu z obróbka Video oraz na grę w VR nie zmienię karty na AMD, gdyż te się w tych zastosowaniach sprawdzają dużo słabiej. Jasne było też, że z uwagi na rozdzielczość i Hz moich monitorów i VR (do 120hz) nie ma co się pchać w topową kartę, tym bardziej biorąc pod uwagę profili używania PC. Do tego dochodził CPU i potencjalny bottleneck (Ryzen 5 3600 + b die). Pod uwagę brałem więc 3 karty. RTX 3060, RTX 3060ti oraz RTX 3070. Decydowały ceny, cisza, względny rozsądek oraz wydajność energetyczna. Względem tego ostatniego wszystkie karty skalują się bardzo dobrze (bardzo podobny stosunek FPS per W), dlatego wybrałem „złoty środek” i dopłaciłem za ciszę. Tak oto wylądował u mnie ASUS TUF RTX 3060 Ti V2 GAMING OC LHR (ahhh te krótkie nazwy) GPU przede wszystkim chłodne, ciche, z 8 fazową sekcją po 50W DrMos (ale tylko jednym złączem zasilania, co ogranicza potencjał OC) i limitem mocy bios na poziome 216W (rzeczywisty limit 225W). Trochę dziwna decyzja ASUSa o tym wszystkim, gdyż chłodzenie i sekcja zasilania ma ogromny zapas mocy (do 400W), dual bios, ale rozumiem, że TUF to nie topowa seria i Strix jakoś musi się sprzedawać. Co ciekawe, właśnie wersja TUF jest najcichszą i najchłodniejszą kartą spośród wszystkich wydań RTX 3060ti i to dowolnej firmy (zarówno w testach ogólnych, jak i normalizowanych dla dźwięku – 40db). Jak ta karta wygląda w suchych liczbach? We wszystkich testach (bios performance), przy ustawieniach z pudła (default), karta osiągało podobny zegar efektywny – 1850mhz i dla takiego wykonam obliczenia mocy. FP32 (float): 17,99 TFLOPS Pixel Rate: 148 GPixel/s Texture Rate: 281,2 GTexel/s Z doświadczenia wiem, że fizyki jeszcze nikt nie oszukał i te liczby powyżej pokazują faktyczną moc GPU. W porównaniu do Zotac GTX 980ti przyrost jest bardzo znaczący w FP32 (TFLOPS), ale wbrew powszechnej opinii, wszystkie powyższe mają ogromne znaczenie, a Texture Rate oraz Pixel Rate nie przyrosły za bardzo. Kierując się wiedzą, doświadczeniem oraz tabelkami Tech Power Up (które pozwalają ocenić przyrost związany z architekturą), wiem, że na podstawie powyższych liczb mogę się spodziewać 70-80% przyrostu wydajności (bez uwzględnienia poboru). Dla bazowych wydań founders RTX 3060ti zyskuje w stosunku do GTX 980ti 95%, ale, tak jak wspominałem, GTX980ti kręciły się bardzo dobrze, a tu porównuję topowego GTX z RTX na producenckim kagańcu i, ogólnym, mniejszym potencjałem OC. Przy takich opisach kart często przypomina mi się sprawa Radeona VII, który niczym rodzina CPU od AMD – FX, na papierze, w liczbach, wyglądał super, ale przez architekturę i dzieloną pamięć dla CU, był nieco gorszy od RX 5700XT (ahhh to AMD i ich klastry z dzieleniem rdzeni, pamięci itd.). Ok, czas kończyć tę teorię i liczyć na to, że Nvidia nie próbowała oszukać fizyki i faktycznie zobaczę te przyrosty na poziomie 70-80%, a przy wykorzystaniu rdzeni tensor dużo wyższe. Platforma testowa: - Ryzen 5 3600@ 4200mhz + True Spirit 140 Power; - 2x8gb 3200mhz cl14 opóźnienia ręczne (b-die); - Asus TUF x570; - Seasonic Prime Platinium 650W. Ważne – zdaje sobie sprawę z potencjalnego bottlenecku CPU, dlatego w testach szczególną uwagę zwracałem na % użycia karty i jeżeli wąskie gardło powstało, to zostanie to zaznaczone oraz przeanalizowane. Dla uspokojenia dodam, że troszkę tych CPU przetestowałem, trochę testów już pooglądałem i ten Ryzen, z tak podkręconym ramem, jest prawie na poziomie R5 5600 ze zwykłym ramem w trybie DOCP. Zaczynam od benchamrku Superposition i testu VR Future w rozdzielczości pod HTC Vive pro. GTX 980ti: 2566 pkt., pobór karty 295W (0,098 klatki na dżul); RTX 3060ti: 4364 pkt., pobór karty 200W (0,245 klatki na dżul); Więc RTX ma 170% wydajności GTX. Bez większych zaskoczeń. Efektywność energetyczna: RTX ma 250% wydajności GTX na dżul. PS Wynik z innych bechmarków w Superposition (np.1080p extreme) dają niemalże identyczne rezultaty. Lecimy dalej z przygotowanymi testami (już bez wydajności energetycznej, do której później jeszcze wrócę, po to, by teraz skupić się na czystej mocy): VR Mark Blue Room a wykresie widoczne wykorzystanie GPU dla RTX 3060ti – czerwona linia w przedziale 98-100%. GTX 980ti: 2016 pkt. RTX 3060ti: 3458 pkt. Więc RTX ma 172% wydajności GTX. Nadmienię tu, że w VR Marku przeprowadziłem wszystkie testy, lecz Cyan room z jakiegoś powodu dla RTX 3060ti był ograniczony do 60fps… (pomimo sprawdzenia wszystkich ustawień) a przy Orange Room mamy spory bottleneck od strony CPU i wykorzystanie GPU na poziomie 60-70% dla RTX 3060ti. Czas na przykłady bardziej życiowe, ale dalej weryfikowalne. DX12 oraz Vulkan Shadow of the Tomb Raider, wbudowany bench 1080p, najwyższe preset (bez RT, bez DLSS), DX12 Z uwagi na zmniejszenie wyniku ogólnego przez CPU, porównujemy tu render GPU (tabelka). GTX 980ti: 83fps średni; 67fps w 95% odciętych; RTX 3060ti: 154fps średni; 122fps w 95% odciętych; Więc RTX ma 185%(dla średniego fps) i 182% (dla odciętego fps) wydajności GTX. Co do samego bottlenecku od strony CPU, to test w SotTR opisywałem już tu. W tym miejscu miał się pojawić jeszcze jeden bardzo ważny test, z Ashes of the Singularity Escalation i API Vulkan, który często wykorzystywałem do porównań, ale, ku mojemu zdziwieniu, gra utraciła wsparcie API Vulkan… Zadowoliłem się więc porównaniem z DX12, chociaż zakładałem, że tu wyniki nie będą bardzo odmiennego od tego, co pokazał SotTR. Ashes of the Singularity Escalation GPU bench, 1080p, Crazy preset, DX12 GTX 980ti: 47,3 FPS (99% wykorzystania GPU); RTX 3060ti: 77,3 FPS (91-98% wykorzystania GPU) RTX ma 163% wydajności GTX. Delikatne wąskie gardło od strony CPU (91-98% wykorzystania GPU) i bez niego, pewnie byłoby to te 170%. RDR 2, wbudowany bench, 1080p, Ultra - suwak na max w prawo, Vulkan GTX 980ti: 42,25fps średni; RTX 3060ti: 79,04fps średni; Więc RTX ma 187% wydajności GTX. W teście nie było mowy o ograniczeniu od strony CPU – widać to na wykresie z msi (obie karty w przedziale 95-99%). Gears 5 wbudowany benchmark 1200p, Ultra preset, asynch off; GTX 980ti: 64,9fps średni; 52,3fps w 95% odciętych; RTX 3060ti: 111,3fps średni; 90,7fps w 95% odciętych; RTX ma 171%(dla średniego fps) i 173% (dla odciętego fps) wydajności GTX. Procesor przy RTX 3060ti musiał się już nieźle napocić, ale mapowanie czasów opóźnienia, które benchmark Gears 5 generuje, jasno pokazuje, że ograniczenia od strony CPU było bardzo minimalne (2,52% klatek CPU z większym opóźnieniem niż klatek GPU). DX 9, DX 10, DX11 Ashes of the Singularity Escalation GPU bench, 1080p, Crazy preset, DX11 GTX 980ti: 48,7fps średni; RTX 3060ti: 69,9fps średni; Wynik RTX stanowi 143% wyniku GTX. Niestety, w przypadku RTX mówimy tu o sporym ograniczeniu ze strony CPU. O ile w przypadku AotS i DX12 wykorzystanie GPU było na poziomie 91-98%, tak przy DX 11 jest to 70-99%. Dlatego ten wynik bardziej jako ciekawostka, przedstawiająca wykorzystanie CPU w DX11 i DX12, a nie faktyczne przedstawienie mocy RTX 3060ti. PS Vulkan jest w tym lepszy od DX12 i szkoda, że go usunięto z AotS. Metro: Last Light Redux benchmark exe., 1080p, Ultra, SSAA DX11 (oryginalnie DX9/DX10) GTX 980ti: 77,32fps średni; RTX 3060ti: 115,63fps średni; RTX ma 150% wydajności GTX. Oba GPU podczas testu był dociążone w 98-99%. W ramach ciekawostki gra z DX10 – Lost Planet EC (wszystko na maxa) GTX 980ti: 285,6fps średni z testu gpu (Snow); RTX 3060ti: 429,6fps średni z testu gpu (Snow); RTX ma 150% wydajności GTX. Oba GPU podczas testu był dociążone w 98-99%. Zaskoczeniem dla mnie był drugi etap benchmarku z Lost Planet – „Cave”, który ma obciążać CPU. GTX miał w nim 95-99% wykorzystania i zebrał 338,7fps, RTX miał 50-70% wykorzystania i zebrał 330,4fps. Nieco zaskakująca sytuacja, chociaż sam CPU miał też o te kilka % lepszy wynik w SotTR, gdy pracował z GTX. Dlaczego brak testów bezpośrednio z gier lub z VR. Te są obarczone sporym błędem, a ich wyników nie można odnieść do własnych ustawień. Do tego co powyżej, każdy może porównać swoją konfigurację, i nie ma błędów wykonawczych. Co do VR, to testy bez wykorzystania FCAT VR uważam za małowartościowe, więc stąd 2 benche pod VR. Ok., czas na moje zastosowanie „profesjonalne”; chociaż w domu. Blackmagic RAW Speed Test BRAW 3:1 itd. to stosunek bitratu obrabianego materiału do oryginału. Im bliższy 1:1 (bezstratny bitrate)tym materiał cięższy w obróbce dla GPU. Natomiast jest to kwestia wyłącznie bitrate – użytego kodeku, całości efektów oraz wybranej jakości (nie uwzględnia w 100% ciężaru użytych efektów czy maszynowego uczenia się, a jedynie ich wyjściowy wpływ). Co obserwujemy? W BRAW 12:1 HQ: - GTX 980ti: 1305 fps; - RTX 3060ti 1904 FPS. Im bliżej BRAW 3:1, tym karty są do siebie bliższe, a w 3:1 GTX980ti ma nawet lekką przewagę. Jest to norma jeżeli chodzi o topowe GPU, które posiadają przewagę jeżeli chodzi o liczby jednostek obliczeniowych, natomiast wynik BRAW 12:1 HQ jest dość wymierny dla normalnego renderu, bez specjalnych efektów, Neural Engine itd. DaVinci Resolve render 4k, bez efektów, x265, kodek NV. - GTX 980ti: 50fps przy 141W poboru samego GPU (0,35 klatki na dżul) - RTX 3060ti 70fps przy 94W poboru samego GPU (0,74 klatki na dżul) Wynik RTX stanowi 140% wyniku GTX oraz RTX ma 211% wydajności energetycznej GTX w tym teście. Co dalej? Czas na rdzenie tensor DaVinci Resolve Neural Engine test Speed Warp x4 test (bazowo full HD 30fps, wyjściowo full HD 120fps), x265, kodek NV, brak innych efektów (jedynie Optical Flow + Speed Warp do kreowania nowych klatek) - GTX 980ti: 3,4fps przy 325W GPU średnio (0,01 klatki na dżul); - RTX 3060ti 13,6fps przy 198W GPU średnio (0,068 klatki na dżul); RTX miał 400% czystej wydajności GTXa oraz 680% wydajności energetycznej. Rozdzielczość AI x4 (bazowo full HD, algorytm Neural Engine x4), x265, kodek NV, brak innych efektów - GTX 980ti: 4fps przy 330W GPU średnio (0,012 klatki na dżul); - RTX 3060ti 12,4fps przy 199W GPU średnio (0,062 klatki na dżul); RTX miał 310% czystej wydajności GTXa oraz 517% wydajności energetycznej. Davinci AI deinteralce (bazowo 1080i; algorytm Neural Engine deinteralce do 1080p) x265, kodek NV, brak innych efektów - GTX 980ti: 15,5fps przy 255W GPU średnio (0,061 klatki na dżul); - RTX 3060ti 38,5fps przy 160W GPU średnio (0,241 klatki na dżul); RTX miał 248% czystej wydajności GTXa oraz 395% wydajności energetycznej. Rozdzielczość AI x2 + Speed Warp x2 (bazowo 720x480, 30fps; wyjściowo 1440x960, 60fps) - GTX 980ti: 4,6fps przy 330W GPU średnio (0,014 klatki na dżul); - RTX 3060ti 16fps przy 199W GPU średnio (0,08 klatki na dżul); RTX miał 348% czystej wydajności GTXa oraz 571% wydajności energetycznej. Kolejny test AI – rdzeni tensor Topaz AI Video Materiał 720x480x30fps, AI upscaling x2; AI fps x2 = 1440x960x60fps Model AI: Artemis; Kodek: NV, x265 Wyniki (więcej=lepiej): GTX 980ti: 3,57fps (0,28spf) przy 280W poboru samego GPU (0,0128 klatki na dżul); RTX 3060ti: 10fps (0,10spf) przy 115W poboru samego GPU (0,0870 klatki na dżul). Więc RTX ma ok. 280% wydajności GTX, i wydajność energetyczną: RTX ma 680% wydajności energetycznej GTX. Efektywność energetyczna: Pobór platformy idle: - GTX 980ti: 75W (30W sama karta); -RTX 3060ti: 55W (10W sama karta). Pobór karty w wypalarce OCCT: - GTX 980ti: 360W -RTX 3060ti: 200W. Pobór karty w SotTR przy zablokowanych 60fps, 1080p, najwyższe preset, benchmark w grze: - GTX 980ti: 214W średnio (0,28 klatki na dżul); -RTX 3060ti: 62W średnio (0,97 klatki na dżul) RTX w SotTR miał 346% wydajności energetycznej GTX. Pobór karty w Gears 5 przy zablokowanych 60fps, 1080p, Ultra preset, benchmark w grze: - GTX 980ti: 242W średnio (0,25 klatki na dżul); -RTX 3060ti: 77W średnio (0,80 klatki na dżul) RTX w Gears 5 miał 320% wydajności energetycznej GTX. Podsumowanie Wydajność ASUS Tuf RTX 3060ti (1850mhz efektywny zegar) do Zotac GTX 980ti AMP Extreme (1410mhz): - o 71% (171% z GTX) lepsza w programach testowych (SuperPosition, VR Mark); - o 80% (180% z GTX) lepsza w grach opartych o współczesne API (DX12, Vulkan); - o 50% (150% z GTX) lepsza w grach opartych o starsze API (DX11, DX10) - o 42% (142% z GTX)lepsza w czystym renderingu; - o 217% (317%) lepsza przy obróbce wideo z wykorzystaniem AI (rdzeni tensor) Dodatkowo dochodzi mniej więcej dwukrotnie wyższa niż to co powyżej efektywność energetyczna. Co do warunków termalnych, to karta w żadnym teście nie przekroczyło 60 stopni (oczywiście, też dlatego, że zwiększała obroty), ale w kilku była lekko słyszalna. W głębsze testy temp./głośności się nie bawię, gdyż już kiedyś próbowałem i uważam, że takie tylko w constans – laboratorium. W domu to tylko strata czasu. Gdzieś tam jeszcze pewnie będę to lekko testował, przede wszystkim w Davincim, z nakładaniem różnych efektów, lataniem po materiale itd., ale to na spokojnie – teraz czas na RE2 w VR (trudno, że tylko mod) Czy jestem zadowolony z wymiany gpu? Na ten moment tak, a resztę pokaże czas, chociaż dalej mnie zastanawia dlaczego ASUS do wersji z tak dobrym chłodzeniem (rdzenia, sekcji i pamięci) dorzuca w cenie takie limity. PS Co do potencjalnego wąskiego gardła ze strony R5 3600. Tak, pewnie tu i tam się pojawi, ale: 1) Czy bez śledzenia programami w ogóle je zobaczę? 2) Mam w zanadrzu jeszcze drugi profil dla ramu, na 1,45V, który dodaje kolejne kilka % mocy CPU w grach – zawsze coś.
    2 points
  8. Ja m Crucial Balistix ale już ich nie produkują. Jeżeli chcesz top cpu do grania na am4 to zastanów się nad 5800x3d.
    2 points
  9. Nie patrz na kalkulatory psu ani to jakie zasilacze są rekomendowane do danej grafiki . Patrz na testy kart i pobór mocy całej platformy ( nie rzadko bardzo mocnej ) - przykładowo I7 8700K@5 Ghz + RX 5700 od Sapphire zasilany przez BQ Dark power Pro 1200 W bierze 275 - 310 W , zasilacz ma sprawność ~90% co da ok. 250-280 W . Twój PSU ma 492W na linii +12 V , spokojnie da sobie radę . Za to procek może już tą kartę hamować
    2 points
  10. 3070 ti to chyba najgorsze ti od lat w wykonaniu nvidii, przyrost mocy niewspółmierny do przyrostu watów. 3070 jest lepszym posunięciem moim zdaniem, zresztą do 2k i to jeszcze nie na max to wszystko powyżej 3060/6600xt jest w zasadzie overkilem, no chyba że w grę wchodzi 120hz. RT tak jak powiedział powyżej kolega, nie dla amd póki co za bardzo.
    2 points
  11. do RTX 3070 650W Gold będzie ok https://www.msi.com/Motherboard/X570-A-PRO/support#cpu płyta ogarnia bez problemu serie Ryzen 5000, także w razie czego nie ma ograniczeń czy przeciw wskazań do wymiany CPU na nowsza generacje, ale pierwej bym potestował jak zachowa się obecny Ryzen 3700X podczas giercowania w 1080p i 1440p.
    2 points
  12. Pochwalę się małą operacją z dnia wczorajszego. W swoim 2,5 letnim RX 5700XT postanowiłem wymienić termopady i pastę termoprzewodzącą. Zostały użyte Gelid GP-Ultimate w wersjach 1 mm (pod radiator) i 3 mm (pod backplate) oraz pasta Thermal Grizzly Kryonaut. Tak informacyjnie - oficjalnie Sapphire podaje że pod backplate można stosować termopady 2 mm ale w praktyce wtedy nie stykają się one z backplate - 3 mm pasują idealnie. Druga kwestia to, ze mi do wymiany termopadów pod radiatorem (1 mm) wystarczył jeden kawałek 90x50mm. Nie ma zatem potrzeby kupowania dwóch. Stare termopady były już nieco kruche i mało elastyczne, pasta trzymała się nieźle. Pod backplate dołożyłem więcej termopadów niż dane było fabrycznie, tj. dołożyłem nad pamięci. Co prawda backplate w niemal na całej powierzchni (poza miejscami gdzie fabrycznie znajdują się termopady), jest zabezpieczony folią, jednak każde dodatkowe odprowadzenie ciepła coś daje. Dodatkowo, nałożyłem pastę w miejscu styku radiatorów pamięci i radiatora głównego. Jeśli chodzi o efekt termiczny pamięci, to jest bardziej niż spektakularny. Przed wymianą w czasie grania nagrzewały się do 100-102 stopni, obecnie 86-88 - spadek temperatury wynosi zatem solidne kilkanaście stopni. Wymiana pasty przyniosła mniej spektakularne efekty, "gorący punkt" w czasie grania spadł ze szczytowych 102-104 stopni do 99-100 stopni, ale za to wynik 3DMark podskoczył o około 100 pkt. co może sugerować, że rdzeń trzyma nieco wyższe taktowanie.
    2 points
  13. obudowa kwestia co się komu podoba, byle aby była funkcjonalna, możliwe z w tym przedziale cenowym wybrał bym: Obudowa Genesis Irid 505 ARGB (NPC-1518) natomiast monitor tak jak napisał "MIG29", tutaj chcąc zaoszczędzić, możesz tylko sam siebie oszukać, bo doby monitor to komfort i przyjemność z użytkowania. polecam zapoznać się z materiałami na YT- kanał "morele" i youtuber Stilgar , wpisz na YT morele monitor
    2 points
  14. Jeszcze raz dziękuję całemu PurePC. Za dwa lata serwis osiągnie pełnoletniość, może zlot? Klik
    2 points
  15. Obudowa bardzo dobra, więc teoretycznie Fortis 3 pociągnie, ale tak czy siak wyższe osiągi i bardziej rozwinie skrzydła na Fortis 5 Dual Fan . Różnica między tymi collerami jest porażająca wręcz na korzyść Fortis'a 5 . Z racji tego że ręczne OC jest niemożliwe to 5800X3D lata na Auto w swoim zakresie i wyższy zegar będzie na Fortisie zwłaszcza pod obciążeniem gdzie przy Fortisie 3 będzie zbijał zegary ze względu na temp wysokie.
    2 points
  16. Czy w BIOS masz opcje bifurkacji dla slotu PCIe?
    2 points
  17. Popieram w całej rozciągłości.
    2 points
  18. Ryż 5600 / 5600x + pamięci podkręć (nie ma sensu wymiany), te moduły zazwyczaj robią 3600-3733 CL16 bez większych problemów... Zasilacz w zupełności wystarczy.
    2 points
  19. Lepiej takie rzeczy robić wbudowanymi w system opcjami: https://www.google.com/search?client=firefox-b-d&q=windows+zmiana+j%C4%99zyka , a nie jakimś programem firmy nie wiadomo skąd, który nie wiadomo co może w systemie zepsuć.
    2 points
  20. https://lmgtfy.app/?q=change+windows+7+language
    2 points
  21. Właśnie doczytałem, dlatego pytam. To według Ciebie po co mu płyta Z jak przypuszczasz, że nie będzie podkręcał? Więc wolałbym żeby kolega wypowiedział się na ten temat sam (jeśli oczywiście chce), bo już podjął pewne kroki - 12600kf, 3070ti i ładna, przewiewna obudowa, więc zakładam, że coś nie coś wie. Nie traktujmy wszystkich w sposób "masz, zrób tak i koniec". Propozycja od Miquel jest jak najbardziej ok. Niech kolega sam podejmie decyzje czy chce wejść w temat głębiej, zastanowić się co mu jest potrzebne, czy tylko kupić co mu podpowiemy na forum, złożyć i już. Możesz się ze mną nie zgodzić Cochin bo to moje zdanie, ale dla mnie świadomy wybór daje więcej satysfakcji. Szczególnie jeśli kupuje się coś raz na kilka lat.
    2 points
  22. Żarełko z gazowego jest zdrowsze ale znowu z węglowego smaczniejsze - przynajmniej dla mnie choć to nie duża różnica acz wyczuwalna. Niby przy węglowym więcej rakotwórczych substancji się tworzy. Ja mam gazowy aby sąsiedzi z góry aż tak się nie burzyli. Przy węglowym jak potrafiło zakopcić to sąsiadka pukała czy wszystko ok. No i gazowy mniej problematyczny bo nie użerasz się z węglem i szybciej się nagrzewa. Na ten moment bym nie zmienił na węglowy, ewentualnie jak masz swoją działkę to miejsce na ognisko sobie przygotował i został przy gazowym.
    2 points
  23. Ostatnio Intel zmienia co 2 generacje podstawkę w płycie. AMD ostatnia podstawka AM4 niby na 4 generacje, ale to taka troche ściema (w najnowsze płyty nie wsadzisz starych procesorów, a w najstarsze płyty nie wsadzisz najnowszych procesorów, chociaż niby podstawka ta sama). I tak w AMD nadchodzi nowa podstawka AM5, jeszcze nie ogłoszono kiedy, pewnie z rok minimum poczekamy jeszcze. Ogólnie jak kupujesz kompa na lata to bym nie patrzył na to czy podstawka bedzie wspierana 1 czy 2 czy 3 generacje procesorów. Gwarantuje ci że i tak tego procesora nie wymienisz bo sie to nie opłaca. Przyrost wydajności w ostatnich latach między generacjami procesorów daje jakieś 5-10% teoretycznie. W praktyce w grach jest to mało odczuwalne. A jak będziesz chciał ulepszyć kompa za 5-7 lat to i tak zmienisz płyte żeby mieć nowe USB, Ethernet, złącza pod SSD, nowe generacje PCIe, nowe RAMy itd. itd.
    2 points
  24. Dzisiaj produkuje się nie gorzej niż 12 lat temu. Obecna moja płyta nawet lepiej wykonana niż ta sprzed 11 lat (np. takie detale jak piny we wtyczkach zasilających są pełne w nowej płycie, a w starej były "puste"). Największy problem z elektroniką, to był w czasie przejścia z lutów ołowiowych, na bezołowiowe, ale to było kilkanaście lat temu. Obecnie luty bezołowiowe są lepiej opanowane. OC kontrolera pamięci i praca na napięciu powyżej normy, życia nie przedłuży. Jak zmieniasz komputer co 2 lata, to nie ma to znaczenia, ale co 12 to już może być inaczej. Akurat testowałem i5 2400 vs i5 12400 (czego oczywiście nikt nie robi), w taki sposób by GPU nie było wąskim gardłem i różnica wydajności była następująca: Shadow Of The Tomb Raider: i5 2400: 82fps i5 12400f: 213fps (gra wykorzystuje raczej więcej niż 4 wątki) World War Z: i5 2400: 139fps i5 12400f: 293fps (gra prawdopodobnie nie wykorzystuje więcej niż 4 wątki) Resident Evil 5 benchmark: i5 2400: test1: 232,7fps; test2: 152,3fps i5 12400f: test1: 487,7fps; test2: 366,5fps (gra wykorzystuje jeden lub 2 wątki, nie pamiętam) Dodatkowo przetestowałem Crysis 1, w miejscu gdzie jest zaminowana wioska, podczas walki: i5 2400: miałem spadki do ~45fps w najgorszych momentach i5 12400f: tutaj najgorszy spadek był do okolic 100fps (gra ledwie używa 2 wątków, to znaczy jeden ostro na 100%, a drugi poniżej 50%, bo jest kiepsko zoptymalizowana) Wielka różnica jest w Cinebench multicore R23: i5 2400: 2402 pkt i5 12400f: 12417 pkt (ciekawostka: ilość punktów w Cinebench 23 prawie pokryła się z nazwami :] ) Procesory nie były podkręcone i pracowały z najszybszymi pamięciami zgodnymi ze specyfikacją tych CPU (i5 2400 z DDR3 1333 i i5 12400f z DDR4 3200, obie ustawione w tryb JEDEC). Pamięci oczywiście w dualu i akurat typ dual rank. i5 2400 4 kostki po 4GB, a i5 12400f 2 kostki po 32GB.
    2 points
  25. Siedzę na i5-2500k i co odruch upgrade to wychodzi że dalej mam za słabą grafikę ( GTX 1660Super kupione fartownie przed pandemią) Kupowanie wypasionej płyty na zasadzie "bo dokupię procesor" wydaje mi się mitem bo ceny hi-endowych procesorów raczej utrzymują się na poziomie "to już lepiej zmienić platformę" Ja kupowałbym raczej coś pokroju 5600x5800x5900x (ew. poczekać, po 4tym kwietnia ma wejść 5700x - tańsza wersja 8-rdzeniowa, ew. 5800x3D) + płyta za 800 niż płyta za 2k + proc za 800 - ale to dlatego że jak patrzę na intelowskie grzejniki to mnie strzela. 1000W zasilacz - nie wiem co to się porobiło w tym świecie....
    2 points
  26. Jako budżetowe granie (a już zwłaszcza w e-sporty) taka platforma jest bardzo ok - ważne, żeby procesor był 4/8, do tego SSD + nie mniej niż 8GB + GTX1650 low-profile. Nic więcej zrobić się nie da 😉
    2 points
  27. W tych pieniądzach to bym powaznie rozważył Alphacool Eibaer Aurora - wszystko z miedzi więc jeśli chodzi o możliwości powinien zostawić daleko w tyle wszystkie takie zabawki. również za ok 800-900 zł można już myśleć o składaniu custom loop'a na budżetowych elementach - wtedy można łatwo np wymienić chłodnicę albo blok jakby czegoś brakowało. Moje doświadczenie jest takie że custom loop o tych samych parametrach co AiO (rozmiar chłodnicy, ilość wentylatorów) jest znacznie wydajniejszy - osobiście zamieniłem Corsaira H60 (który uchodzi za bardzo wydajne chłodzenie w swojej klasie) na małą loopę z miedzianym blokiem i chłodnicą 1x120mm - z marszu 15 stopni w dół w stresie na ryzenie 2600X. Swoją drogą może być trudno zbić procesor poniżej pewnej tempratury - jest pewna granica możliwości odbioru ilości ciepła przez blok wodny - jak procesor dużo tego generuje to pod obciążeniem będzie ciepły nawet jakby przez blok płynęła woda w temperaturze kranówki.
    2 points
  28. A nie lepiej sprzedać procka który masz obecnie , dołożyć kasę i kupić nowego I5 10gen/11gen ? Płyta na B560 + I5 10400f / 11400f , 10400f to koszt 650 zł . Będziesz miał nową platformę i płytę na gwarancji , procek trochę szybszy niż twój obecny I5 , 10400f ma wydajność nieco mniejszą niż I7 8700 .
    2 points
  29. Witam ponownie. Dziękuję za wszystkie podpowiedzi i porady. Pierwszym krokiem, jak wspominałem, był zakup routera/ap TP Link Archer AX1500. Zamontowany na parterze, gdzie mam poprowadzony przewód lan. Przełączony w tryb AP i rozgłasza wi-fi jako jedyne urządzenie w domu. Wi-fi w netgear wyłączone. Póki co, testuję od 2 dni i muszę powiedzieć, że jeśli chodzi o dostępność zdalną komputera w piwnicy, to jest niebo a ziemia. Ten temat chyba będzie rozwiązany. Teraz zostaje jeszcze przyjrzeć się samemu routerowi netgear i ewentualnie wymienimy go na wspomnianego Asusa DSL-AC750.
    2 points
  30. To zależy od modelu. Przeważnie jest tak, że modem-router posiada osobny chip do modemu i osobny chip do routera. W lepszych routerach jest jeszcze jeden chip, ktory wszystkim zarzadza. Jesli nie masz tego głownego co wszystkim zarzadza wtedy automatycznie wydajnosc spada. To tak po chłopsku wytlumaczyłem 😄 Nie bić. Co do modelu routera po rozmowie z @orlontkopostaw na DSL-AC750
    2 points
  31. DVA-5592 posiada prócz modemu ADSL/VDSL normalny port WAN RJ45, więc czemu miałoby to nie działać? Jest to dość rozbudowany router.
    2 points
  32. @toms83 Najpierw musimy dowiedzieć sie czy to sprawka Neo czy Netgeara. Apki dokupić można zawsze 😉 rozmawiałem z @Zabuzai on ma nawet ciekawszy router ADSlowy niestety nie pamiętam jego nazwy 😉 poczekamy aż zabuza go napisze 😉 Co do pytania o 2 zadurzania. router adslowy przestawiony w bridge i dodatkowy router ma ta przewagę ze Nie ma podwójnego Natowania. (wtedy jeden router ten z modem adsl/vdsl robi jako konwerter sygnału A/VDSL a drugi routuje). Bo jak byś miał router a/vdslowy w trybie routera i do niego podłączyć router to właśnie wtedy jest jest podwójny NAT. Najlepszym które daje dodatkowo olbrzymie możliwości konfiguracji sa routery mikrotika. Czyli router adslowy(w bridge)+ router hex(750GR3)/HEX_S/HAP AC2/HAP AC3 + do na każda kondygnacje AP Ubi. Co do przebicia sie do piwnicy, pościć Kabel kominem wentylacyjnym z 1piętra do piwnicy i wtedy można podłączać APka
    2 points
  33. Nie mamy logów wiec nie możemy ocenić czy to wina Netgeara czy neo. Najlepiej sprawdziło by sie router + APki Ubiquiti aclity lub lite 6 ale wtedy jeden Apk i praktycznie mamy po budżecie.... Jak toms83 chcesz nowy router ADSLowy to na piętrze Tplink w9960 (posiada modem ADSL jak i VDSL gdyby np modernizowali Centralkę nie trzeba będzie wymieniać routera, którego ustawiamy w tryb bridge. Do tego na piętrze kupujemy Tplink AX10/1500 (co tańsze) i ustawiamy go jako router . Drugiego Ax10/1500 umieszczamy na parterze ustawiając go w trybie AP. Tym sposobem powinien znacznie poprawić się zasięg, jednak nie gwarantuje ze będzie dobry zasięg w piwnicy, ale powinno być znacznie lepiej niz teraz( najlepiej jak by była skrętka do piwnicy ale jej niestety nie ma). koszt ok 550zł
    2 points
  34. Jeżeli bedziesz robił kable w scianach to cat 6a jesli kable ukladasz tak zeby kiedyś mozna je wymienic to cat 5e wystarcza do neta 1G. Jeśli masz siłe to kable min 20 cm do 5e mogą być bez ekranu - jeśli w przyszlosci 10 G to ekran 6a i im dalej od prądu tym lepiej. Kolega @nemoeinjuz wlasciwie wszystko powiedzial. Zalezy od kasy. Mniej kasy wystarczy routery jako apki wiecej kasy idz w Ubi albo MT + Ubi jako ap U6 (nie U6 lite). Czy zrobisz to na switchach różnica żadna (pare pico sekund) ale staraj się trzymać zasady i mniej tym lepiej pozniej jakby się coś stało. Najlepiej będzie wg mnie jak do skrzynki tam gdzie masz router podejrzewam teletechniczna dasz sobie router i switcha a reszte kabli rozprowadzisz. W skrzynce powinno się zmieścic switch i router na szynach przykręcić (ale musialbys zdjecie skrzynki rzucic) Jak nie da rady wszystkich kabli wyprowadzic z skrzynki to wyprowadz 2 i w kazdym pomieszczeniu po switchu (lub router w wersji tanszej) i od nich kable do koncówek. Pomieszczenie 4 to albo wiercisz przez sciane od 2. Switce w miejscach 5 i 6 i od nich kable do klientow. Wifi to Ubi U6 w pomieszczeniach 2 i 3 mniej wiecej na srodku albo na scianie albo na suficie (sufit preferowany) Jak masz sufit podwieszany to wszystkie kable )mozesz sufitem podprowadzić). Napisz proszę czy masz mozliwosc np. wiercenia w scianach czy masz mozliwosc puszczenia panelami albo w listwach od paneli czy masz sufit podwieszany czy po prostu sie nie da - zmniejszy to koszty i wtedy mozna zrobic wszystko taniej (bez dodatkowych urządzen tak jak kolega powiedzial na zasadzie gwiazdy)
    1 point
  35. Finalnie zdecydowałem się na Della - raz że odświeżanie, dwa - wg recenzji ma jednak lepsze wykonanie niż LG. Dodatkowo był jakies 200pln tańszy. Dodatkowo na https://www.rtings.com/monitor/tools/compare/lg-27gl850-b-vs-dell-s2721dgf/912/16485?usage=3623&threshold=0.10 też miał lepszą punktację finalnie (co prawda LG ma lepszą czerń rzekomo, ale róznica wydaje się minimalna)
    1 point
  36. Można spróbować poprawić fabrykę i zmienić pastę - może została nałożona za grubo albo za cienko i dlatego temperatury są takie wysokie. Ewentualnie możesz na próbę wziąć jakąś podkładkę chłodząca. Wiele to niedaje, bo jakieś 5-8 stopni, ale może w Twoim przypadku da to więcej. Sczczególnie jeśli temperatura otoczenia jest dość wysoka. Jak już wybierać podkładkę, to taką, w której da się ustawić wentylatory pod wloty w Twoim lapotpie - wianie w plastik nic nie daje. Coolermaster ma takie rozwiązanie. Jak się spiszę, to w przyszłości polecam wymienić wentylatory na cichsze i wydajniejsze np. od Noctua https://www.x-kom.pl/p/165359-podstawka-chlodzaca-pod-laptop-cooler-master-chlodzaca-notepal-u3-plus-13-do-17-czarna.html Jak będzie lipa, to najwyżej odeślesz.
    1 point
  37. Myślę że mogą uciągnąć. Ja kupiłem ten kabel 4K@60Hz i ciągnie 144Hz 3440x1440. Mój monitor nie ma więcej Hz niż 144 więc więcej nie sprawdzę. 1440p również działa w 144Hz. Zarówno z portu usb-c+display alt mode, jak i z portu thunderbolt 4. Aczkolwiek widzę na allegro kable 4K 120Hz więc możesz po prostu taki wziąć 🙂
    1 point
  38. Czy zeby dodawac komentarze na stronie glownej portalu, trzeba sie jakos dodatkowo rejestrowac? Dlaczego nie dzialaja dane do logowania, kiedy chce skomentowac jakis artykul?
    1 point
  39. Asus RT-AC68P lub Asus RT-AC68U(na promocji w x-komie) (prawie to samo), Netgear R6400 v2 jak bedziesz chcial wiecej powiedz
    1 point
  40. Witam, Właśnie przez origina kupiłem sobie Medal Of Honor Airborne, niestety po ściągnięciu i zainstalowaniu wyskakuje komunikat "twoja karta graficzna nie jest obsługiwana". Komputer to laptop Lenovo E560 z prockiem i5 6200U, Intel HD Graphics 520, 8GB Ram, ssd 240, windows 10 pro 64bit. Na tym kompie bez problemu chodzi gta v, oraz strzelanki z okresu zbliżonego do tego medal of honor takie jak cod2, cod4, cod 5, bf3. Czy istnieje jakieś rozwiązanie pozwalające odpalić tę grę?? Próbowałem ustawiać zgodność z xp, instalowałem jakiś physx niestety nie pomaga. Ciężko znaleźć w necie jakąś sensowną instrukcję. Myślałem, że kupując przez origin nie będą musiał pitolić się z odpaleniem oryginalnej gry :P Z góry dzięki za pomoc. PROBLEM ROZWIĄZANY Pod jednym filmem na YT znalazłem komentarz w którym było napisane żeby usunąć plik MOHASETUP, co też uczyniłem. Z pierwszej chwili myślałem że to był żart, ale po dłuższej chwili wyskoczyła jakaś aktualizacja i gra ruszyła. Minusem są ciemne intra przed misjami oraz brak możliwości zmiany ustawień grafiki. Niestety po przesiadce z cod2 ciężko się gra w tego moha :P Zwyczajnie jest lipny.
    1 point
  41. brawo przynajmniej "Morguliusz" jest trzeźwo myślący i dostrzega ze w obecnych czasach zakup CPU bez igpu to strzał w kolano ...
    1 point
  42. Ok to postanowione. Plan jest taki aby wymienić procek i dokupić jeden dysk SATA 1TB Cruciala. Przekopiuje na nim system, a tamten jako dodatkowy 100GB na coś tam. Mam już jeden przenośny, więc ten będzie w sam raz na jakieś pierdołki. Obejdzie się w sumie bez tego dodatkowego dysku 500GB więc kolejne 265zł w kieszeni. I ew. dołożę do nowego procka, żeby mieć pewność, że pochodzi. Problem w tym, że nie ma zintegrowanej grafy. Jeśli obecna padnie to kaplica.
    1 point
  43. Każdy inaczej patrzy na koszty, ale moim zdaniem dokupienie SSD i wymiana samego procesora jest stosunkowo prostym i tanim sposobem na przyśpieszenie Twojego komputera. Być może SSD posłuży Ci także w kolejnym komputerze (dlatego nie warto brać najtańszych, a Crucial MX to dobry wybór). Dla wydajności najlepiej by było gdybyś nie zapełniał nośników danych powyżej 70-80% - warto, żebyś się zastanowił co oprócz systemu wrzucisz na SSD, a co na HDD. Na HDD powinny wylądować przede wszystkim te rzeczy z których rzadko korzystasz lub dla których prędkość odczytu nie ma większego znaczenia (np. muzyka i filmy - o ile nie zajmujesz się ich obróbką). Twoja płyta główna powinna mieć 6 złączy SATA, więc nie powinno być problemu z używaniem 4 nośników. Jeśli zdarza Ci się przenosić większe ilości danych, to możesz pomyśleć o wykorzystaniu starego SSD jako dysku przenośnego - wystarczy dokupić kieszeń na USB 3.0.
    1 point
  44. Cześć! Odniosę się głównie do kwestii SSD. Zdecydowanie warto, żeby programy które odczytują dużo danych były na SSD. Moim zdaniem, najlepiej jeśli kupisz od razu 1TB, a na HDD będziesz sobie trzymał kopie zapasowe ważnych plików. Crucial MX500, to dobry dysk - sam używam od jakiegoś czasu wersji 500GB. Jeśli potrzebujesz dysku na złączu SATA, to zdecydowanie polecam tą serię. W kwestii przenoszenia systemu - tak, można skopiować partycję 1:1. Producenci napędów często dostarczają niezbędne oprogramowanie dedykowane ich produktom (zazwyczaj trzeba je sobie pobrać z ich strony). Swego czasu Crucial udostępniał świetne oprogramowanie "Acronis True Image for Crucial" - prawdopodobnie robi to nadal. Musisz poszukać na stronach producentów, co obecnie oferują. Oprogramowanie Acronis można też kupić niezależnie - wtedy nie jest ograniczone do dysków danego producenta. RAM - sprawdź na stronie producenta płyty głównej, jakie moduły są obsługiwane. Nie sądzę jednak żebyś miał duży uzysk wydajnościowy przy wymianie. EDIT: Widzę, że już sprawdziłeś stronę producenta. Procesor - sprawdź jakie jest jego obciążenie w programach/grach. Dopiero wtedy można się zastanawiać nad opłacalnością wymiany.
    1 point
  45. Witam zacznę od tego ze posiadasz całkiem normalny kompiuter, trochę kable w nie ładzie ale nie każdy zawraca na to uwagę bo to nie jest konieczność, tylko jak ktoś ma taka potrzebę, czyli np. Ja XD to jest tylko propozycja bo komputer ma już kilka lat i może warto było by się zastanowić czy takiej operacji nie przeprowadzić, samemu lub zlecić komuś mającemu o tym pojęcie. skoro występują losowe "zwiechy' poszukał bym przyczyny, np. rozebrać cała jednostkę, w "drobny mak", wszystko wyczyścić ino nie pod bieżąca woda ... , czyli po wyjęciu CPU sprawdzić punkty montażowe czy maja ładny jasny złoty kolor czy może już tak trochę pociemniały ?, bo pewnie od nowości nikt tam nie zaglądał ... przed ponownym montażem umyć te punkty montażowe alkoholem izopropylowym, sprawdzić czy socket czyli gniazdo dla CPU nie zwiera jakiś brudów w postaci starej pasty kurzu lub jakowyś paproszek ... , oraz czy wszystkie piny są "proste" to samo dla pamięci ram wyjąc, przetrzeć piny, przedmuchać wszystkie gniazda w płycie głównej, dodatkowo podziałać miękkim pędzelkiem oraz sprawdzić organoleptycznie czy nie siedzi tam kurz . wymontować płytę główna i dokładnie organoleptycznie ja obejrzeć po kolei każdy układ, czy gdzieś któryś nie jest już przesiedziały na nóżkach, jeśli tak to, to szczoteczka do zębów alkohol izopropylowy i szuru buru aż do czysta. karta graficzna ma swoje lata i fajnie ze jeszcze działa, jestem zaskoczony, oraz posiada 4GB i to to jest duży plus, kiedyś sam użytkowałem GTX 770 , ale na pewno karta ucieszyła by się z nowych termopadów i nowej pasty termoprzewodzącej, o ile nie były wymieniane. widzę ze posiadasz dodatkowa kartę muzyczna, a czy ta która jest na płycie głównej jest w biosie wyłączona ? a ten Xonar od czasu do czasu nie zamienia kanałów prawy z lewym ? XD dyski twarde przeskanował bym programem MHDD jak wyglądają powierzchnie zapisu, niby program ogólnie jest stary i przez autora ten projekt nie jest już rozwijany, ale dyski pod SATA, można fajnie sobie sprawdzić, i jak to wygląda, a ten WD Blue 1TB to na pewno za ciekawie nie wygląda ... pamięć ram i jej szybkość dla 3gen., czy 4gen Intela w grach raczej nie przynosi oczekiwanych dużych wzrostów FPS także zakup szybszej pamięci nie wiem czy jest sens , natomiast mógł byś sprawdzić jak będzie pracował komputer, po zmianie ustawienia biosie "command rate" z 1T co jest obecnie, na 2T to tyle jeśli chodzi o ogólne oględziny kompa. co można zrobić tzw. upgrade , zacząć od np. OC CPU , skoro masz taki fajny zestaw chłodzący, i CPU z literka K i5-4670K czyli 4r/4w to nie jest zły procesor, ale nowsze tytuły już idą w kierunku 4r/8r, gdzie ten i5 po prostu zaczyna się "dławić", czy wymiana na i7 4770k lub i7 4790k plus OC 4.3GHz jest opłacalna?, zysk moc w grach tak ale czy finansowo ? patrząc na ceny CPU używanych, to już każdy musi sobie na to pytanie odpowiedzieć sam. co do wymiany dysków na coś większego i nowszego, to obecnie sam pewnie widzisz ile waza nowsze tytuły i taki 500-512GB pod system plus programy jest optymalnym wyborem, pod system wersja tańsza SSD Crucial MX500 500 GB 2.5" SATA III (CT500MX500SSD1) TWB 180TB i teraz można dokupić drugi pod gry ale 1TB SSD Crucial MX500 1 TB 2.5" SATA III (CT1000MX500SSD1) TWB 360TB lub opcja dorsza SSD Samsung 870 EVO 500 GB 2.5" SATA III (MZ-77E500B/EU) TWB 300TB ale tutaj 300TB mamy dla dysku o pojemności 500GB lub GoodRam IRDM Pro 512 GB 2.5" SATA III (IRP-SSDPR-S25C-512) TWB 600TB albo zaszaleć i pokombinować dla dysku pod gry kupić przejściówkę , https://allegro.pl/oferta/jeyi-coolswift-adapter-pcie-ssd-m-2-nvme-radiator-10416005299 https://allegro.pl/oferta/adapter-pcie-x16-m-2-m-key-ssd-nvme-radiator-jeyi-7916106113 tylko wtedy trzeba najlepiej dobrać dysk pod M.2 z elementami tylko po jednej stronie na pewno SSD Kingston A2000 1 TB M.2 2280 PCI-E x4 Gen3 NVMe (SA2000M8/1000G) bo Samsungi pod M.2 to trzeba by się dobrze rozpatrzeć czy maja elementy po jednej stronie bo potem nie idzie upchać termopadów i tego niby radiatora zamontować. tutaj chodzi o to ze podczas ładowania się dużych lokalizacji w grach jest różnica czasowa pomiędzy SSD a M.2 testowałem sprawdzałem .
    1 point
  46. Kolego, głosisz tutaj herezje nie poparte w żaden sposób aktualną treścią umowy licencyjnej końcowego użytkownika dotyczącej Windowsa 10. https://www.microsoft.com/en-us/Useterms/OEM/Windows/10/Useterms_OEM_Windows_10_Polish.htm By nie być gołosłownym: Bzdura - punkty licencji 1.a, 2ab Bzdura - dowolne urządzenie - jedno na raz. Ponownie punkty 2a oraz 4ab Nowe urządzenie - deaktywujesz poprzednią instancję systemu, logujesz się kontem Microsoft na nowym, licencja jest aktywowana. Tyle. Ba, nawet odnośnie przeniesienia/sprzedaży licencji MS musiał się ugiąć przed UE (przynajmniej raz ta cała biurokracja się do czegoś przydała) - punkty 4ab oraz 12c. Główna różnica między wersjami OEM a BOX dla W10 jest taka, że OEM w zasadzie nie ma klasycznego wsparcia technicznego od MS + wersja OEM nie może być wykorzystana do upgrade'u istniejącego systemu. PS. Na tej stronie można sobie sprawdzić warunki licencji dla dowolnego produktu MS https://www.microsoft.com/en-us/useterms
    1 point
  47. jak XMP będzie działało stabilnie , to nic nie stoi na przeszkodzie aby to sprawdzić o ile można podnieść jeszcze.
    1 point
  48. Moim zdaniem jeśli istnieje szansa że będziesz je kiedyś reorganizował ja bym kupił 2 uchwyty aby mieć opcje.
    1 point
  49. Dziś za 200zł nie kupisz, znaczt kupisz ale 200 dol jak masz szczęście. Kiedyś sprzedałem SB32 AWE (CT3990) za jakieś grosze, z pudełkiem i całą dokumentacją - big mistake :) Dziś, nawet kupno 486 to naprawdę spory wydatek. Sent from my SM-G975F using Tapatalk
    1 point
  50. Hej, Kup dowolny router WiFi (do wyboru, do koloru), wyłącz serwer DHCP na nim, przydziel adres IP z puli Twojego LAN-u, podłącz kabel do któregoś portu LAN, ustaw SSID dla nowo utworzonej sieci WiFi. Będzie działać. Model - np. coś z tanich TP-Linków (C20 w wersji budżetowej (LAN 100Mb/s), C2 optymalnie (LAN 1Gb/s)) pzdr
    1 point
This leaderboard is set to Warsaw/GMT+01:00


×
×
  • Create New...