Jump to content

Kyle

Stały użytkownik
  • Content Count

    11540
  • Joined

  • Last visited

  • Days Won

    20

Everything posted by Kyle

  1. Jeśli te myszki mają podobny sensor do V2m, to max mają nieinterpolowane (czyli realne) 1600dpi, co zmierzyłem. Jeśli nie musisz mieć dużej myszki, to na Twoim miejscu wolałbym Logitech G102 za 90zł, który ma sensor z innej ligi, o kilkukrotnie większym dpi nie wspominając.
  2. Wydaje mi się, że to standard w monitorach tych odrobinkę lepszych, od podstawowych modeli. Spotkałem się z tym w EIZO, LG z ich "graficznej" klasy, czy nawet średniej klasy AOC 4K 31,5" VA.
  3. Mniejsza jasność, dzięki temu niższa temperatura pracy, to raczej się mniej zużyły, niż gdyby świeciły na 100%.
  4. Dzień dobry Jestem zainteresowany zakupem dwóch dysków po 10TB każdy: https://www.x-kom.pl/p/420322-dysk-zewnetrzny-przenosny-seagate-backup-plus-hub-10tb-usb-3-0.html Czy mogą Państwo zaproponować przynajmniej taki rabat, by cena za TB była na podobnym poziomie co w modelach 6 lub 8TB?
  5. W pracy mamy i5 4590, fakt, że z dobrym chłodzeniem (z jakimś 120mm wentylatorem), a nie BOX, ale tak czy inaczej problemów ten procesor nie sprawia, a już parę lat pracuje 24godziny/7dni w tygodniu. Komputer z nim jest praktycznie niesłyszalny (wentylatory kręcą się po kilkaset RPM) No ale wracając do tematu temperatur Ryzen 3600/3700X, to sporo się naczytałem na różnych forach, o temperaturach nawet po 90 stopni bez OC. Nie wiem w takim razie już zupełnie jak to jest z tymi Ryzen 3600/3700X, ale nie ukrywam, że te opinie powstrzymują mnie przed zakupem tych modeli (myślę nad 3700X).
  6. W pracy mamy 2200G i na box chłodzeniu temperatury są całkiem normalne. Jednak z tego co słyszałem, 3600/3700X itp. modele 7nm mają często problemy z odprowadzaniem ciepła, których nie miały Ryzen pierwszej (1xxx, np. 1800X) i drugiej (2xxx, np. 2400G, 2200G) generacji (generalnie modele mające rdzenie wykonane w starszym procesie niż 7nm nie mają tego problemu, czyli 3200G też powinny być OK).
  7. Jeśli chce w 100% wykorzystać to łącze, to AC będzie raczej za mało (pamiętajmy, że zwykle transfery przez Wi-Fi są niższe od deklarowanych). Także wręcz celowałbym na miejscu kolegi w Wi-Fi w wersji AX (tylko jeszcze pytanie, czy router od Orange obsługuje AX) . Przykładowa karta Wi-Fi na PCI-E obsługująca AX: ASUS PCE-AX3000
  8. Kyle

    140 fps wygląda jak 10

    Prawym na pulpicie->ustawienia ekranu->zaawansowane ustawienia wyświetlania->wyświetl właściwości karty dla wyświetlacza 1->zakładka monitor Natomiast limit FPS, aktywacja/dezaktywacja skalowania GPU itp. już w ustawieniach sterowników.
  9. Kyle

    140 fps wygląda jak 10

    Problemy z synchronizacją choćby, ew. stabilność FPS. Przykład u mnie: karta od nVidii, monitor ustawiony na stałe 60Hz gra ma FPS od 62 do 77, freeSync OFF, synchronizacja OFF, a całość dosyć potrafi często miejscami skakać (choć licznik FPS wskazuje w tych skaczących miejscach ponad 60). Po włączeniu limitu FPS na 60 FPS (nadal sync off), ilość klatek na sekundę jest stała (60), a postrzegana płynność stała się świetna. Jeszcze kiedyś miałem inny ciekawy przypadek, w grze Crysis, na karcie od AMD: FPS był ~60 natomiast postrzegana płynność była raczej jak ~30 . Winne było skalowanie po stronie GPU, bo jak je wyłączyłem (skalowanie przejął monitor) to na liczniku FPS nadal było ~60, tak jak wcześniej, ale tym razem płynność widoczna "okiem" o niebo lepsza (jakby dopiero teraz realnie było to ~60). Także pobaw się różnymi synchronizacjami, wyłącz testowo skalowanie GPU, albo z ciekawości ustaw monitor na stałe 120Hz, framrate w sterownikach ustaw na max 120 (w grze w której minimum jest powyżej 120FPS) i zobacz czy jest lepiej.
  10. Problemu nie miałem, kiedy wczoraj wymieniałem XFX RX460 na Palit GTX1650. Nawet starych sterowników AMD nie chciało mi się odinstalowywać na starym GPU, także zrobiłem to już po włożeniu nowej karty. Po odinstalowaniu na karcie nVidii sterowników do AMD, pobrałem najnowsze stery do nVidii i je normalnie zainstalowałem.
  11. Ja kupowałem w promocyjnej cenie 3150zł, a teraz widzę 3200zł, wiec na mój gust nadal okazyjka ;) ps. ja tam nie korzystam z VESA, ale rzekomo ten model ma VESA 100x100mm
  12. Tutaj moje wrażenia po pomiarach tego modelu po wyjęciu z pudełka, bez kalibracji sprzętowej: https://forum.pclab.pl/topic/1275663-LG-32UD99W-32-cale-4K-HDR10-95-DCIP3-10bit/page__view__findpost__p__15596556 Także generalnie nie wiem co autor miał na myśli. Obecnie monitora nadal nie mam w trybie sprzętowo skalibrowanym, tylko mam korekcję R G B, bo po prostu po paru miesiącach temp. barwowa się oziębiła (jak podświetlenie się zużywa, to monitor wymaga kalibracji - na EIZO już tak miałem, tylko tam był CCFL, więc po czasie się ocieplał). Także na dłuższą metę każdy zwykły monitor wymaga jeśli nie od razu, to po jakimś czasie kalibracji, a wyjątkiem od tej reguły są tylko modele z wbudowanym czujnikiem korekcyjnym, ciągle kompensującym wszelkie skutki zużycia (mam tu na myśli graficzne EIZO CG z wbudowanym takowym czujnikiem). Generalnie LG 32UD99 po wyjęciu z pudełka praktycznie nie wymagał kalibracji, natomiast nowo-wyjęty Philips 245E1S/0 już na dzień dobry wymagał wyraźnej zmiany R G B w OSD by uzyskać 6500K x:0,313 y:0,329.
  13. Jeszcze dodam 2 grosze: IPS mają dosyć niski kontrast(słabą czerń) więc radzę szukać modeli z możliwie największym kontrastem jeśli chcesz IPS. Osobiście zakupiłem LG 32UD99 na IPS, bo ma kontrast ponad 1400:1 (nawet do okolic 1500:1), czyli jak na IPS to jeden z najwyższych - piszę o kontraście precyzyjnie zmierzonym (sam zmierzyłem kolorymetrem). Także zorientuj się jaki kontrast mają modele które wyszukałeś (pomiary w recenzjach). Dane producenta są nierzadko dosyć niedokładne w tej kwestii (są modele z deklarowanym 1000:1 mające poniżej 800:1, a są modele z deklarowanym 1000:1 mające realnie okolice 1100:1)
  14. "2. Jaka grafika będzie potrzebna żeby grać w 4K przy 60k/s w jakieś tam bardziej wymagające tytuły ?..." Tak bardzo orientacyjnie, to wymagania od GPU w 4K są ~2x większe niż 2,5K. Czyli jak w jakiejś grze wyciśniesz w 2560x1440 120FPS, to w 3840x2160 powinny być okolice 60FPS (wszystko zależy od gry - spadek może być mniejszy/większy). "3. ... no właśnie i jeśli nie będzie takiej grafy to rozumiem, że mogę odpalić sobie jakaś gierke w mniejszej np. 2k na monitorze 4k ?" W kartach od AMD RX460/nVidia GTX1650, można ustawić skalowanie integer, a wówczas w grze monitor 4K będzie wyświetlał jak FHD. Inna sprawa, że na ekranie 4K tradycyjnie skalowany obraz gry, renderowany do 2,5K-3K wygląda całkiem przyzwoicie.
  15. W niektórych laptopach można wyłączyć kamerę w BIOS/UEFI - zobacz czy nie została tam wyłączona.
  16. Kyle

    Darmowe gry

    Na Epic Games ( https://www.epicgames.com/store/pl/ ) jest za darmo Just Cause 4 https://www.epicgames.com/store/pl/product/just-cause-4/standard-edition i Wheels of Aurelia https://www.epicgames.com/store/pl/product/wheels-of-aurelia/home
  17. Zależy od prędkości przepływu powietrza. Każdy dodatkowy element mechaniczny, zwiększa hałas, a nie zmniejsza. Jednak kiedy przepływ przez jedną kratownicę/wentylator jest odpowiednio wielki (do tego stopnia, że generuje to znaczny hałas), to zaczyna się opłacać dołożyć kolejny wentylator, by pompować tą samą ilość powietrza, ale większą powierzchnią (ta sama ilość wymienianego powietrza w obudowie/jednostkę czasu, ale przy 2x niżej prędkości przepływu przez pojedynczą przeszkodę/kratownicę, czyli zamieniamy jeden szybki strumień o wydajności X, na dwa wolniejsze o sumarycznej wydajności X). Inaczej: powyżej pewnego progu wydajności ciszej jest mieć dwa wolno obrotowe wentylatory, niż jeden, który stał się wysoko-obrotowy. Przykład z życia: sam mam tylko jeden wentylator, ale wolno obrotowy, bo on daje sobie radę z małą ilością ciepła które generuje mój komp. Jednak gdybym musiał mieć znacznie większą szybkość wymiany powietrza (wysoko-wydajny PC), to musiałbym znacznie zwiększyć jego obroty, a wówczas ciszej będzie dołożyć kolejny, trzymając wolne obroty. ... tak to wygląda z mojej obserwacji.
  18. Jeśli chodzi o filmy, to zależy jakie będziesz odpalał. Ta karta raczej nie wspomaga dekodowania HEVC 4K 60FPS, więc wszystko spadnie na CPU. Podobnie jak kiedyś wpadniesz na pomysł podpięcia jakiegoś monitora 4K-5K - pewnie też max co można pod nią podpiąć to 2560x1440 60Hz.
  19. 3840x2160 jest już opłacalne przy 27". Nie będzie problemu z dostrzeżeniem różnicy w jakości czcionek między 27" 2560x1440 a 27" 3840x2160. Oczywiście trzeba używać aplikacji nieprzestarzałych, czyli tych które dobrze się skalują.
  20. Może po prostu wzmacniacz głośników ma stosunkowo dużą czułość. Rozwiązaniem jest po prostu nie dawanie głośności po stronie karty dźwiękowej, na wyjściu, na wysoki poziom, tylko trzymanie się niżej (nawet niżej niż wspomniane 70% dla marginesu bezpieczeństwa).
  21. W programach biurowych typu Microsoft Office / libre Office, przeglądarka www, AdobeReader im wyższe PPI monitora, tym wyższa jakość i czytelność tekstu. Z wielkością elementów w poprawnie napisanych, nie przestarzałych aplikacjach nie będzie problemu (po ustawieniu systemowego powiększenia na np. 200% wszystko będzie wygodnie duże i ostre). Zamiast 28" 1920x1080 popatrz w stronę monitorów 27" 3840x2160 (kosztują ~1000zł). Jeśli granica 900zł jest nieprzekraczalna, to celuj przynajmniej w 2560x1440 ( 23,8" o takiej rozdzielczości kupisz nawet poniżej 700zł )
  22. Z tego co piszesz, to raczej wada ustawień domyślnych. Gamma powinna być 2.2 (nie nastawa, tylko realna gamma - moze masz gammę 2.2 po ustawieniu nastawy na wartość 0,9 - nie wiem). W systemie/sterownikach GPU najlepiej jak jest niemodyfikowana, a w monitorze ma być takie ustawienie, by fizyczna gamma "na wyjściu" była 2.2. By to sprawdzić, to najlepiej zresetować LUT karty graficznej i w Microsoft Paint (program bez CMS) wyświetlić obraz "RzeźnikLCD" (znajdziesz przez google. Gammę regulujesz tak, w OSD monitora, by uzyskać niepodbarwiony, szary gradient na tym obrazie testowym. Możesz też uruchomić Pixel Persistence Analyzer, włacyzć test gammy, ustawić suwak na 2.2 i tak manipulować w ustawieniach OSD monitora, by "kwadraty" były najbardziej zlane z tłem (by uzyskać gammę najbliższą 2.2). 4 godziny temu, Dominik94 napisał: (ale wujowo zarządza się teraz cytowaniem na PurePC) Jeśli chcesz mieć wszystkie odcienie (bez bandingu np. w najjaśniejszych odcieniach), a zarazem maksymalny kontrast/dynamikę obrazu, to kontrast ustaw na natywny. Są dwie drogi by to osiągnąć: Prosta: reset ustawień monitora by uzyskać natywne R G B i nastawę kontrastu (po tym trzeba oczywiście znowu ustawiać gammę) Trudna, ale wyciskająca max z monitora: manualne odszukanie kontrastu natywnego na planszy 256 odcieni (ta metoda wymaga odpowiedniego wyświetlania, czyli najlepiej reset LUT GPU, program bez CMS przy wyświetlaniu). Po prostu tak "maksymalizujesz" na planszy nastawę kontrastu w OSD monitora, by wszystkie 256 odcieni poprawnie się wyświetlało (by nie zlały się te najjaśniejsze) - trzeba pamiętać, że nastawa kontrastu jest powiązana z nastawami R G B. Trzeba też pamiętać, o tym by karta graficzna wysyłała pełny zakres 0-255, a nie obcięty 16-235.
  23. Przy połączeniu HDMI-HDMI też nie działa?
  24. Kyle

    Crysis

    Zauważyłem dziwny problem w Crysis, w połączeniu ze skalowaniem przez GPU. Mam Win 10 max zaktualizowany, najnowsze sterowniki do AMD RX460 4GB, i5 2400, brak OC, 16 GB RAM, monitor 3840x2160. Kiedy mam włączone skalowanie przez GPU (w grze ustawione np. 2560x1440, a monitor 4K) i tak ustawione detale by mieć ~60 FPS (wskazanie z "licznika" wbudowanego w sterownik AMD), to to 60 FPS dosłownie skacze, tak jakby na oko było tych klatek minimum 2x mniej. Kiedy skalowanie z 2560x1440 -> 3840x2160 zlecę monitorowi (wyłączone skalowanie GPU), to wg. licznika mam identyczne ~60 FPS, ale całość chodzi bardzo płynnie, tak z 2x płynniej (tak jakby dopiero teraz na prawdę było te ~60FPS). Czy ktoś z Was spotkał się z takim zjawiskiem? W innych grach (np. Battlefield 3) nie zauważyłem takiego zjawiska.
  25. Taki test pokazałby która karta ma najlepszy stosunek głośności do osiąganych temperatur (czyli najbardziej efektywne chłodzenie). Bo obecnie np. najcichsza karta, może być niby cicha, ale gotująca się. Test który proponujesz zmniejsza ilość zmiennych. Dla kogoś kto zmienia po zakupie krzywe wentylatorów, taka informacja (która karta ma najefektywniejsze chłodzenie) byłaby bardzo istotna (bo wiedziałby na którym modelu uzyska przy danej temp. najniższy hałas). W sumie mi przydała by się taka informacja. Jeszcze trzeba by tylko ustalić przy porównaniu danego modelu kart (np. Radeony 5600) identyczne taktowania i napięcia.
×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue.