Skocz do zawartości

Dijkstra

Stały użytkownik
  • Liczba zawartości

    8444
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    41

Odpowiedzi dodane przez Dijkstra

  1. Tak, acz z pewnym opóźnieniem, ale i tak totalnie nic mi to nie powiedziało, bo  od dłuższego czasu nie interesuje mnie, jak intel czy amd oznaczają swoje procesory i czy są  destopowe czy nie. Rozróżniam CPU serwerowe i nie i tyle. Ale to totalnie nic nie zmienia. Instalatory graficzne (np. Ubiquity, którego używa sporo distro) nie zawsze są w stanie poprawnie działać, jeżeli pierwszą inicjowaną kartą jest dGPU/PCIE. Sprawdzenie tego nie kosztuje dużo, a to na filmie wyglada jak jakiś hardware problem, bo instalator restartuje kompa i totalnie nic nie wyświetla. Na secure boot mi to nie wygląda, bo bądź co bądź instalator KDE Neon się uruchomił do momentu wyświetlenia menu tekstowego wyboru trybu instalacji - wywalił się kawałek dalej, podejrzewam, że przy próbie przejścia w tryb graficzny.

     

    PS. Spróbowałbym jakiegoś distro z instalatorem czysto tekstowym (debian, ubuntu serwer), to może przynajmniej w konsoli wyświetlony zostanie jakiś błąd, lub - w przypadku distro Ubuntopodobnego, które pozwala na zrobienie pendrive z trwałym cache użytkownika - przejrzenie loga instalatora, który powinien się znaleźć wówczas na pendrive po nieudanej instalacji. 

  2. Ale to komputer, a karta graficzna gtx 970 jest podpięta pod monitor.

     

    Nie rozumiem? Notebooki mają często dwie karty graficzne (Twój z tego co teraz widzę ma GTX 970), współdzielące wyjścia. Standardów przełączania tego jest kilka, zaimplementowane pod linux są różnie, ale w większości przypadków jest to problematyczne. Jeżeli notebook ma opcję stałego przełączania działającego GPU i jako główna karta jest ustawiona nVidia, to instalator Linux może mieć problem, jeżeli otwarty sterownik nie potrafi obsłużyć grafiki. Chodzi o podobne ustawienia:

    bios-graphics.png

     

    jakkolwiek w notebooku niekoniecznie w ogóle są.

    Jeżeli to zewnętrzne GPU (wątpie), to je odłącz i sprawdź bez niego. 

     

    Faktycznie, sugestia wyłączenia secure boot nie jest od rzeczy, ale samo się raczej nie włączyło, jeżeli nie grzebałeś w BIOS lub go nie aktualizowałeś, a ustawienia grafiki mógł zmienić sterownik windowsowy. 

  3. interesowałaby mnie opcja możliwość uruchomienia kilku programów których mam kod Windowsa nie wiem czy na linuksie pójdą są to małe programy 25mb oraz Ciekawi mnie czy jest możliwość instalowania sterowników z pod Windowsa na Linuxa. Ogólnie to laptop byłby używany tylko i wyłącznie do programów samochodowych i ich sterowników

     

    Sent from my SM-N920F using Tapatalk

     

    Nie ma możliwości uruchomienia windowsowego sterownika na linux (poza kilkoma wyjątkami typu ndis wrapper) - sterownik ma za zadanie zapewnienie obsługi sprzętu przez jądro systemu. Inna sprawa, że to, co często uważa się za sterownik, bynajmniej nim nie jest, jest natomiast runtimem lub frameworkiem. 

    Uruchamianie aplikacji windowsowej na Linux jest możliwe za pomocą WINE, czyli windows api przeniesionego na linuxa metodą reverse engeneeringu głównie. Większość aplikacji w Windows działa za pomocą api, czyli "rozmawia" ze sprzętem za pomocą sytemu operacyjnego, który używa do tego sterowników. 

    Jeżeli "program samochodowy" to np. coś do obsługi interface ODB2 poprzez dedykowane oprogramowanie, to w zależności od tego, jak zaprojektowany jest kabel ODB2 do komputera (czy i co emuluje po drodze, jakim protokołem wysyła informacje) - może dać się uruchomić, ale może też nie. 

     

    Natomiast może prościej będzie zrealizować to za pomocą RemixOS (Androida zrobionego pod dekstop) - jest łatwiejszy dla osób mało komputerowych, a softu do ODB2 na Androida jest całkiem sporo.

  4. XFCE na pewno mniej zasobożerne i szybsze, niż Unity lub Gnome. Podobnie Mate - proste, lekkie i szybkie środowisko.

    Większość 1080p powinieneś otwierać bez problemu, bo Twoje GPU dekoduje sprzętowo h264 - problemem będą ewentualnie HEVC i hi10p. 

     

    Druga sprawa - sterowniki grafiki Intel jako jedyne są otwarte, więc zainstalują Ci się domyślnie - ale bez wsparcia dekodowania sprzętowego. Trzeba doinstalować pakiety - przynajmniej na 14.04, może 16.x już ma inaczej:

    libva-intel-vaapi-driver                        install
    libvdpau-va-gl1:amd64                           install
    libvdpau1:amd64                                 install
    mesa-vdpau-drivers-lts-vivid:amd64              install
    vdpau-va-driver:amd64                           install
    

    I trzecia sprawa - jeżeli do odtwarzania używasz VLC i wydajność będzie taka sobie, zwłaszcza w SW, to spróbuj MPV. 

  5. Phenom ma 4 fizyczne rdzenie o takiej sobie jak na dzisiejsze czasy wydajności i 6MB cache L3.

    G4560 ma 2 rdzenie i 4 wątki (HT) i 3MB cache. 

    Jeżeli głównym przeznaczeniem zestawu ma być wirtualizacja, to Phenom zdecydowanie wygrywa, ale tylko i wyłącznie w tym przypadku, bo w zastosowaniach single-core Pentium będzie tak ze 2x szybsze, a w zastosowaniach multi-core, pewnie ze 20%. Ale wirtualizacja to trochę inna bajka, jakkolwiek tu również kwestia co te maszyny mają robić i ile ich będzie.

     

    Większym problemem jest RAM i storage - 4GB pozwoli ledwie na uruchomienie jednej maszyny, jeżeli zarówno host jak i guest jest windowsem. Na screenie masz 16GB, z czego 4 wolne. Jak to wszystko zacznie swapować na jednym dysku HDD, to responsywność tego zestawu będzie taka, że okresowo będziesz mógł na kawę wychodzić, żeby kolejny ruch myszą wykonać.

     

    Już lepiej na laptopie zostań. 

    • Upvote 2
  6. Skoro pytasz, to raczej na codzień z Linuxem nie spotykasz się za często. W tym wypadku polecam jednak Ubuntu ze względu na dużą bazę wiedzy, jak i obsługiwanego sprzętu. Ubuntu w sensie samo Ubuntu lub coś na nim bazującego - Mint, Elementary,  Kubuntu.  

    Ewentualnie  CentOS - może Fedora, lub OpenSUSE - również spora baza wiedzy i softu dzięki komercyjnemu zapleczu.  

    Trochę też musisz sobie odpowiedzieć na pytanie, czy interesuje Cię raczej jak największa stabilność, czy też szybki rozwój, nowinki, jak najłatwiejsza dostępność nowych wersji oprogramowania.

     

    Działać sprawnie powinna każda dystrybucja - ja mam laptopa z C2D T5750 i  GMA965, które hardware'owo nie wspiera praktycznie nic, w czym teraz się koduje i jestem w stanie oglądać 720p prawie wszystko, HVEC/hi10 czasem chrupnie.

    • Upvote 1
  7. Ja mam czystego x86 na starym lenovo R61i - używam go czasem do pracy, bo na Linuxa nie ma mojego firmowego VPN, a Windows zasadniczo nie używam i nie posiadam. Ot, robi za klienta RDP + pocztę, mam też na nim kilka apek do ściągania mang.  Siedzi sobie normalnie na SSD, bootuje go grub. Windowsowy boot loader też potrafi, ale trzeba się trochę nagimnastykować.

  8. Poza głównym tematem: wiesz, że jest kompilacja Android x86/x86_64 i nie trzeba go emulować?
    Mam zarówno 4.4.4 jak i 7.1 na blachach - działają normalnie, nie trafiłem na żadną niezgodność. 4.4.4 uruchamiałem na pewno w VirtualBox, VMware Playerze i Proxmox.

     

    Co do budy - mam w dobrym stanie takie leciwe coś, jak Spire SwordFin Case - trzymam ją od lat, bo to dobra buda, ale raczej nie będę miał w najbliższym czasie potrzeby posiadania PC wymagającego takiej obudowy. Nie planowałem w sumie sprzedawać, ale jeżeli miałaby Ci się przydać...

    Miałem w niej 955 BE @ 4GHz oraz GTX 460, temperaturowo dawało radę. Dwa wentylatory 120mm, przód i tył. Do tego zrobiłem kiedyś takie zmyślne pudełko z wentylatorem 120mm, które ściągało powietrze bezpośrednio z boku kart rozszerzeń i wyrzucało to przez pionową kratkę obok śledzi na tylnej ściance.

    W budzie jest jakiś corsair (nie pamiętam - bodajże VS 550), na którym to chodziło. W razie czego, priv.

  9. PC vs iMac

    Już w tytule jest pewnego rodzaju bład/uogólnienie: W 2006 roku Apple zakończyło produkcję PowerMac G5, który był ostatnim Mac w architekturze PowerPC - kolejne Maki to x86, jak każdy PC. Różnią się systemem operacyjnym i oczywiście wzornictwem. Ale na Mac możesz zainstalować Windows, a na zwykłym składaku - macOS (tzw. hackintosh)

     

    Dlaczego ludzie wybierają apple?

    Jak dla mnie główne powody:

    - potrzebują się wyróżniać

    - potrzebują/lubią używać softu dostępnego wyłącznie na macOS/iOS

    - wolą macOS od Windows lub bardziej ufają Apple niż M$, a Linux/BSD/Android nie jest dla nich z tych czy innych powodów akceptowalną alternatywą

    - nie da się też ukryć, że wzornictwo Apple w pewien sposób się wyróżnia, a jakości wykonania i/lub niektórych rozwiązań konstrukcyjnych próżno szukać u konkurencji.

    - ponieważ Mac ma od zawsze wystandaryzowany hardware, OS może być do niego precyzyjnie skrojony - stąd macOS zazwyczaj jest bardziej niezawodny, mniej dziurawy i powiedzmy bardziej responsywny. Po prostu pisany jest pod konkretny harwdare, podczas gdy dajmy na to Windows ma działać na wszystkim. Niby macOS również ma HAL, ale ma ono niewiele wspólnego z HAL Linuxa bądź Windows.

    - obecnie, ponieważ M$ swym genialnym marketingiem praktyczne zarżnął Windows Phone, a Google nie ma (oficjalnie) OS dedykowanego dla desktopów, to jeżeli chcesz mieć spójny OS z przyległościami w telefonie i na desktopie, to Apple nie ma konkurencji.

     

    Po prostu ludzie mają różne potrzeby, preferencje i priorytety.

     

    PS. macOS to IMHO dobry system, u zarania bazujący na BSD, ale praktycznie od początku zawsze go wyprzedzający. Natomiast polityka Apple praktycznie w każdym jednym detalu jest dla mnie nieakceptowalna i wręcz mnie brzydzi chyba nawet bardziej, niż M$, stąd Mac nigdy dla mnie nie istniał jako platforma, a ich produktów staram się nawet nie dotykać.

  10. Dokładnie tak. Kabel łączący modem z routerem netgear wepnij w port LAN netgear'a, nie WAN, wyłącz na nim DHCP.

    Modem robi już NAT i ma serwer DHCP, od netgear'a potrzebujesz tylko, aby był switchem i access pointem. Obecnie robisz na nim drugi raz NAT, efektem czego masz dwie sieci LAN, które domyślnie nie widzą się wzajemnie.

     

    Powyższe przy optymistycznym założeniu, że modem (providera?) nie jest dziurawy jak sito. 

     

    Droga, którą ja bym szedł - ustawienie modemu w tryb bridge i przeniesienie LAN w całości na netgera. Może wymagać interwencji providera w konfiguracje routera.

  11. Kup w biedronce 250ml spirytusu rektyfikowanego, wylej to na jakąś płaską tackę, w której zmieści się klawiatura. Wsadź ją do tego na kilka minut, później po kilka razy naciśnij każdy klawisz (żeby zassać alkohol). Następnie klawiatura do pionu, ponownie naciskasz każdy klawisz kilka razy (żeby wypompować alkohol), ponownie zanurzasz w alkoholu i naciskasz (żeby znów zassać) i tak do skutku. 

    Niestety cukry słabo rozpuszczają się w alkoholu, więc jeżeli to nie pomoże, można robić to samo w wodzie demineralizowanej, tylko później klawiaturę dobrze wysuszyć przed podłączeniem. 

     

    Ale te klawiatury od 30zł można kupić, wiec nie wiem, czy warto czas tracić na voodoo.

  12. Jak jesteś raczej casualem, nie planujesz nowych obiektywów - zostaw to, z czym Ci lepiej. Aparat może być wypasiony, mieć super parametry - ale jak Ci nie leży, to zazwyczaj nie chce Ci się go nigdzie ciągać, nie robisz zdjęć i w sumie nie służy do niczego. Jeżeli któryś wolisz (a wychodzi, że pentaxa), to tego zostaw.

  13. Iridium Pro jest w Polsce dla dysków SSD tym, co VAG 1.9TDI dla silników ;] Przy tych cenach bym się nie zastanawiał, tylko brał cruiciala, albo dołożył 50zł i brał SU900, jeżeli obecność TLC 3D miała by Ci nie dawać później spać. 

    Jeżeli już tak bardzo liczysz i analizujesz, zamiast po prostu kupić sobie dysk ;), to co do różnicy pojemności, weź pod uwagę, że większa pojemność przekłada się wprostproporcjonalnie na dłuższą żywotność nand. Jeżeli z pojemności dysku powiedzmy 75GB zajmą Ci dane, które nie będą zmieniane, to pozostała przestrzeń jest tą, która będzie podlegała zapisom. W przypadku cruiciala będzie to 200GB, w przypadku goodrama - 165GB. Procentowo różnica przy takim przykładzie to 17.5%, czyli o tyle więcej zapisów będzie miała każda komórka na mniejszym dysku, i różnica ta będzie rosła lekko wykładniczo wraz z procentem zapełnienia dysku. Przy zajętych 150GB będzie to 90 vs 125GB, czyli 28%. Dość łatwo można wyliczyć, przy jakiej ilości zapełnionego miejsca różnica będzie wynosić 100%. Firmware pilnuje, aby nie było bardzo dużej różnicy w wear-level poszczególnych komórek i przenosi dane, ale nie robi tego bardzo często, bo to z kolei prowadziłoby do sztucznego generowania dodatkowych zapisów (write aplification)

    Do tego, MX300 jest w większości przypadków (zwłaszcza nie-benchmarkowych) szybszy od goodrama. Zazwyczaj nieznacznie, ale jednak.

    https://www.purepc.pl/pamieci_masowe/test_dyskow_ssd_crucial_mx300_godni_nastepcy_crucial_mx200

     

    Jeżeli zaś chodzi o to, co podałem:

    MLC przechowują 2bit informacji w jednej komórce

    TLC przechowują 3bit informacji w jednej komórce

    Implikacje są takie, że przy zapisaniu tej samej ilości danych, nie dość, że TLC jest teoretycznie wolniejsze (analogicznie przy odczycie), to jeszcze jedna komórka przyjmuje więcej zapisów, czyli szybciej się zużywa.  Jeżeli nałożyć na to ten sam proces technologiczny, powiedzmy 15nm, to TLC będzie miała większe upakowanie, co czyni je bardziej podatnym na degradacje, co pociaga za sobą utraty danych, bit flipping etc. Wyjaśnione tu: http://www.anandtech.com/show/6337/samsung-ssd-840-250gb-review/3

    A jednak

    http://techreport.com/review/26523/the-ssd-endurance-experiment-casualties-on-the-way-to-a-petabyte

    Samsung 840 na zwykłych, 'płaskich; TLC zdołał wykonać 900TB zapisów wykazując zdatność do dalszego użytkowania, pomimo tego, iż już od 200TB zaczął intensywnie pożyczać sobie komórki z przestrzeni rezerwowej - ale po to są, i dlatego dyski TLC zazwyczaj mają ich więcej. 

     

    I teraz tak:

    - samsung 840 miał TLC 21nm

    - HyperX 3K miał MLC 25nm

    - Corsair miał 26nm

    - Samsung 840PRO - zwycięzca - miał MLC 21nm

     

    Ciekawe, jak na tym tle wypadłyby ostatnie dyski MLC 19nm i mniejsze, w szczególności 14nm. 

    A ponieważ przy 3D miniaturyzacja procesu technologicznego nie jest niezbędna, bo obecnie kładą bodajże 32-48 warstw i kładą dalej, to powiedziałbym, że wolałbym jednak zdecydowanie nowe TLC 3D, niż nowe MLC planar. Poniżej 20nm cell-to-cell interference w planar nand wzrasta drastycznie i to jest większy problem, niż 3bit TLC, i potencjalnie bardziej skracający żywotność.

    • Upvote 1
  14. Prawdopodobnie WPS Office

    Wszystkie podawane przez Ciebie to praktycznie to samo - forki OpenOffice, z czego Libre rozwija się najdynamiczniej, ale zgodność z MS Office nie jest ich priorytetem.

    WPS jest rozwijane przez Chińczyków jako alternatywa dla M$ Office i celują w jak największą zgodność z M$. Ale licencja WPS Free nie zezwala na użytek komercyjny, za wyjątkiem wersji Linux (community)

     

    PS. Nowe M$ Office obsługują Open Documents Format, czyli natywny format Libre/OpenOffice. Być może w ten sposób będzie prościej?

  15. 1. Switch rzadko kiedy posiada funkcjonalność DHCP - nazwa na stronie dlink "16-Port Fast Ethernet Unmanaged Desktop Switch" wskazuje, że to zwykły switch 3 warstwy. 

    2. Router z drugiej strony bardzo często posiada taką funkcjonalność, stąd problemu szukać należy raczej na routerze. Nie ma tam aby jakiegoś MAC filtering włączonego?

    3. Ale dla pewności - pomiń switch i sprawdź bezpośrednio na routerze.

    4. Wykonaj w terminalu:

     

    dpkg --get-selections | grep -i dhcp
     
    cat /etc/*release ; cat /etc/debian_version
     
    ip addr ; nmcli nm && nmcli d
    
  16. AFAIR te dyski miały problem z wysoką temperaturą pracy powodującą pękanie ścieżek na laminacie (naprężenia miejscowe). Możesz go rozpruć i zanieść do kogoś, kto ma lutownicę hot air, żeby podmuchał po ścieżkach. Może nawet znajdziesz przebarwienia na laminacie i uszkodzenie widoczne pod lupą, które da radę poprawić zwykłą lutownicą kolbową.

    Jeżeli to kwestia odzyskania danych, możesz próbować po prostu wyginać lekko laminat pod różnymi kątami, niewykluczone, że dysk zaskoczy (zacząłbym od podparcia laminatu na rogach i lekkiego nacisku na środku laminatu). Lub najpierw podłączyć go na dłuższych kablach do mostka USB i wrzucić do zamrażalnika, następnie spróbować uruchomić po schłodzeniu. Pomimo tego, że cyna ma większą rozszerzalność cieplną, to laminat jest jednym kawałkiem długości kilkunastu cm, a większość ścieżek ma kilka cm; kurczacy się laminat spowoduje chwilowe zbliżenie się do siebie pękniętych ścieżek i dysk może zagadać na jakiś czas. Raz mi się tak udało, dysk popracował tak z 10 minut.

    • Upvote 3
  17.  

    W GoodRam jedynie kusi 60m gwarancji

     

    I tak, i nie - to jest gwarancja sklepu, nie producenta, bo gwarancja Wilk Elektronik jest podstępna nieco:

     

    Gwarancja udzielana jest bezpośredniemu nabywcy produktu od Wilk Elektronik SA i nie podlega przeniesieniu. Wszelkie roszczenia dotyczące produktów niespełniających warunków niniejszej gwarancji mogą być składane jedynie przez podmiot, który nabył dany produkt bezpośrednio w Wilk Elektronik SA. Użytkownik końcowy reklamację produktu zgłasza w miejscu jego zakupu.

    http://www.goodram.com/pl/o-firmie/warunki-gwarancji/

    Oznacza to min. tyle, że jeżeli kupować goodrama, to od sprawdzonego sprzedawcy, który nie zniknie z rynku - na pewno nie z allegro. I nie ma mowy o przyjemnym reklamowaniu przez formularz RMA na stronie.

×
×
  • Dodaj nową pozycję...