Jump to content

udam_u

Stały użytkownik
  • Posts

    444
  • Joined

  • Last visited

  • Days Won

    3

Everything posted by udam_u

  1. Na Fiji problem nie wystepuje. Usage: bugcheck GPUDEVICEINDEX Using GPU Device #0 List of devices: Device #0, name: Fiji, AddressBits: 64 Device: Fiji, Driver version: 1800.11 Loading program binary: bugcheck-Fiji-64-1800.clo Calling kernel: sub_i32 #0: 10213 - 1256: value=8957, scc=0 Expected value=8957, 64bit: 8957, expected scc=0 SUCCESS sub_i32 #1: 13234 - 42221: value=-28987, scc=0 Expected value=-28987, 64bit: -28987, expected scc=0 SUCCESS sub_i32 #2: 6321 - -5343: value=11664, scc=0 Expected value=11664, 64bit: 11664, expected scc=0 SUCCESS sub_i32 #3: 2114067115 - -63823599: value=-2117076582, scc=1 Expected value=-2117076582, 64bit: 2177890714, expected scc=1 SUCCESS sub_i32 #4: -5343 - 6321: value=-11664, scc=0 Expected value=-11664, 64bit: -11664, expected scc=0 SUCCESS sub_i32 #5: -63823599 - 2114067115: value=2117076582, scc=1 Expected value=2117076582, 64bit: -2177890714, expected scc=1 SUCCESS sub_i32 #6: -10213 - -1256: value=-8957, scc=0 Expected value=-8957, 64bit: -8957, expected scc=0 SUCCESS sub_i32 #7: -13234 - -42221: value=28987, scc=0 Expected value=28987, 64bit: 28987, expected scc=0 SUCCESS Press ENTER
  2. Widział ktoś może gdzieś recenzje tego zasilacza? Jest dostępny w sprzedaży w kliku sklepach, lecz brak jakiejkolwiek recenzji i nawet producent na swojej stronie milczy na temat jego istnienia...
  3. Tak jak koledzy napisali najpewniejsza opcja to złożyć samemu kompa. Sam w Proline kupowałem części wiele razy i zawsze wszystko było ok. Ze względu na ustawę konsumencką zawsze jest jakieś ryzyko, że ktoś już testował sprzęt, który kupisz. Niedawno mój kolega kupił Evga 980Ti w Morele i była już ona wcześniej przez kogoś rozpakowana - m.in. nie miała folii na backplate. Był tego pewien, ponieważ później zamówił drugą sztukę i widział różnicę. Ustawa konsumencka zakłada, że produkt kupiony przez neta i zwracany bez podania przyczyny nie może nosić śladów użytkowania ale jest to trudne do spełnienia, bo nawet mocując kartę mogą pozostać ślad po śrubkach. Co sklepy mają robić z takimi kartami jeżeli są sprawne?
  4. Pewnie, że da się bez tego żyć...ale jeżeli jest taka możliwość to zawsze lubię korzystać z dostępnej akceleracji bo jakby nie było jest to oszczędność zasobów kompa i energii. Teraz jak mam cichą grafikę to chciałbym jak najwięcej na nią przerzucić. DXVA dla H.264 mi działa i dzięki temu obciążenie CPU jest na poziomie 2% podczas oglądania filmów. Poza tym im wyższa rozdziałka tym wartość ficzera będzie wyższa... (; EDIT: Zapytałem na forum Guru3D innego użytkownika Fiji korzystającego z Win7 i okazuje się, że ma normalnie obsługę HEVC_VLB_Main. Jest więc wciąż jakiś benefit z korzystania z Windows 7. Ciekawe kiedy AMD doda w sterownikach akceleracje pod WIN10. ^^ EDIT2: Dobre wieści - w najnowszej becie driverów 15.11 AMD dodało akceleracje HEVC_VLD_main do Win10! (: Dzięki temu podczas odtwarzania filmów w tym formacie obciążenie CPU jest na poziomie 1-2%. ^^ Niestety akceleracja nie działa przy materiałach 4k. :/ EDIT 3: Udało mi się znaleźć rozwiązanie. Używałem stabilnej wersji MPC HC, która miała zintegrowany LAV-Filter 0.65 i nie udostępniała przez to akceleracji materiałów 4k kodowanych HEVC. Zainstalowałem teraz "nocny build" MPC HC, który ma zintegrowany LAV-Filter 0.66 i wszystko jest ok. (: przed aktualizacją softu po aktualizacji softu ^^ Działa to niesamowicie - odtwarzanie materiału 4k HEVC obciąża CPU w ok 2%. (:
  5. Potwierdzam - u mnie też problemy z 15.9 i 15.9.1 (coś a'la freezy) ustąpiły. (: Z innej beczki podobno w Fury X i niektórych APU AMD dodało sprzętowy dekoder HEVC (H.265). Orientuje się ktoś może, czy jest jakiś zestaw kodeków umożliwjających wykorzystanie tego ficzera? Sam znalazłem coś takiego: https://github.com/Nevcairiel/LAVFilters/releases W opisie nowych ficzerów jest: "NEW: Support for DXVA2-Native decoding of HEVC 10-bit with EVR on supported GPUs" Próbowałem to uruchomić poprzez player MPC-BE ale coś chyba źle robie i nie uruchamia mi się akceleracja podczas odtwarzania materiału H.265 (W ustawieniach filtrów zewnętrznych aktywowałem Lav video decoder z zaznaczonym preferowaniem). W oknie konfiguracji LAV Video Decoder mam wybrany Hardware decoder to use DXVA2 lecz w polu active decoder jest napis <inactive>.... EDIT: Dodatkowo na tej stronce jest okno DXVA Checkera w którym jest aktywny HEVC_VLD_Main http://www.anandtech.com/show/9390/the-amd-radeon-r9-fury-x-review/8 Uruchomiłem ten programik u siebie i nie mam HEVC_VLD_Main mimo to, że korzystam z najnowszej wersji Catalyst 15.10Beta... Co jest grane, AMD usuneło support dla dekodowania HEVC?
  6. Super, że się starają. Sprawdziłem z ciekawości stronkę Sapphire i nie ma jeszcze żadnego update biosu (chociaż ta funkcjonalność nie jest mi akurat potrzebna bo mam tradycyjny BIOS). Jakich driverów używasz? Ja do tej pory działałem na AMD-Catalyst-15.8Beta i wszystko śmigało jak należy. Wczoraj zainstalowałem AMD-Catalyst-15.9.1Beta i widać, że ekpia z AMD ostro eksperymentuje z zarządzaniem pamięcią - objawiło się to u mnie dziwnymi freezami podczas oglądania filmików na Youtube oraz grania w WOT. Słyszałem, że był problem z driverami AMD-Catalyst-15.9Beta ale AMD-Catalyst-15.9.1Beta miały być poprawione...jak widać nie udało się to do końca. ^^ W co grasz na Fury X?
  7. Tylko z jednego powodu - aby dostęp był maksymalnie dobry. (:
  8. Mały ruch w polskim wątku Fury X. Sprawdziłem i udało mi się zapakować Fury X z resztą kompa do obudowy Fractal Design Define XL R2. ^^ Idealnym miejscem instalacji chłodnicy jest tył obudowy, gdy próbujemy instalować ją w innym miejscu jest o wiele trudniej, ponieważ wymiary chłodnicy są większe niż wentylatora 140mm. W moim przypadku musiałem jeden koszyk na dyski całkowicie wyrzucić a drugi przesunąć maksymalnie w lewo - całe szczęście, że ta obudowa umożliwia takie manewry! (: Poniżej efekt końcowy.
  9. Jeżeli chodzi o GPGPU to AMD jest w tej chwili najlepszym wyborem. Odnośnie typu grafiki to sporo zależy np. od tego jakiej precyzji obliczeń potrzebujesz - pojedynczej, czy podwójnej? Jeżeli pojedynczej to obecnie najszybszy jest Fury X i dalej taka kolejność: Fury Nano, zwykły Fury, R9 390X, 290X, 390, 290... Jeżeli zależy ci na wydajności w obliczeniach podwójnej precyzji to najlepiej się sprawdzi R9 280X oraz HD7970GHz, potem R9 390X, 290X, 390, 290, dopiero później karty Fury X, Fury Nano i zwykła fury. Jest tak dlatego, że w Thaiti wydajność obliczeń podwójnej precyzji stanowi 1/4 wydajności pojedynczej precyzji, dla Hawaii/Grenada jest to 1/8 a dla Fiji aż 1/16. Przy wyborze karty bierz też pod uwagę pojemność oraz szybkość pamięci - obliczenia są wykonywane w pamięci karty graficznej tak więc jej szybkość będzie miała wpływ na wydajność a pojemność na wielkość problemów, które będziesz mógł obrabiać. Z kart rozglądaj się za modelami z cichymi chłodzeniami, docenisz to gdy będziesz dłużej obciążał grafike lub musiał spać przy uruchomionym komputerze (np. seria Strixx Asus lub Gaming od MSI). Płyta główna dobrze, żeby miała PCI-E 3.0 bo poprzez tę magistralę będziesz kopiował dane z pamięci komputera do karty graficznej i na odwrót - ma to wpływ na wydajność. Odnośnie CPU to fajnie jest mieć więcej rdzeni, żeby zysać jakieś porównanie pomiędzy szybkością wykonywania kernela na GPU i CPU. Modułowe procki AMD też są dobre do tych zastosować chociaż platforma się już postarzała i nie ma np. obsługi PCI-E 3.0. W grach będzie gorsza od Intel jednak biorąc pod uwagę niską cene procesorów AMD (możesz kupić FX8320E za ~550zł) oraz to, że głównie chodzi ci o GPGPU a nie granie to zastanowiłbym się nad prockiem AMD i reszte kasy np. na lepszą grafikę. Jeżeli zdecydujesz się na intela to jakieś i7 bym brał w zależności od dostępnych środków.
  10. Nie wiem, czy to może mieć wpływ na to co pokazuje GPU-Z ale moja płyta główna nie obsługuje UEFI. (: Z innej beczki, szukam przestronnej obudowy mogącej pomieścić płytę formatu E-ATX, w której będę mógł zamontować chłodnice Fury X z przodu obudowy. Podoba mi się Fractal Design Define XL - czy ktoś posiadający tę obudowę mógłby potwierdzić, że da się w niej zamontować chłodnicę z przodu?
  11. Dzisiaj po ponad miesięcznym oczekiwaniu odebrałem moją Fury X - została wymieniona na nową. Szczęśliwie ta jest cicha. (: Zrobiłem zdjęcia poprzedniej karty oraz tej obecnej i jest pewna poszlaka po której możliwe, że będzie można domniemać, że karta Fury X (Sapphire) będzie z cichą pompką. Poniżej moje spostrzeżenia. Oto zdjęcia starej karty: Oraz nowej (z cichą pompką): Stara karta miała na pudełku podaną złą przepustowość pamięci 450GB/s. Nowa karta (z cichą pompką) ma w tym miejscu nalepioną nalepkę z prawidłowa przepustowością 512GB/s. Wygląd karty też się odrobinę różni - nowa ma na płycie czołowej oraz na wentylatorze naklejki Sapphire. Proszę brać pod uwagę, że nie jest pewnikiem, że wszystkie karty z naklejka na pudle są z poprawioną pompką. To co napisałem jest oparte tylko na moim doświadczeniu. Jakby nie było może to być jakąś przesłanką przy wybieraniu karty. BTW Sapphire sprytnie się zabezpieczyło przed ściąganiem pokrywki. (:
  12. No to czekamy niecierpliwie na relacje. (:
  13. Na pewno bezpieczniej przeczekać...tylko nie wiadomo kiedy będzie można kupić Fury X bez zamartwiania się o rewizje pompki (ja przeczekałem miesiąc od premiery w nadzieii, że trafi mi się dzięki temu karta w poprawionej rewizji). AMD nie zrobiło oficjalnej akcji wycofywania z rynku kart z felerną pompką. Producenci nie wiadomo jak traktują zwroty. Podejrzewam, że zwracane karty nie sa wycofywane z rynku tylko trafiają do kolejnych klientów, więc głosne karty znikna dopiero, gdy zostaną wykupione przez klientów, którzy zaakceptują gorszą kulturę pracy pompki.
  14. Jeżeli chodzi o wydajność to warto przejrzeć recke na portalu - masz wiele tytułów w róznych rozdziałkach przetestowanych. Skrótowo karta nadaje się do gry w 1440p. Odnośnie pompki z rewizji obarczonej problemem to nie jest ona głośna w porównaniu do chłodzeń powietrznych...problemem jest dźwięk jaki emituje - cos w rodzaju "jęku". (: Podczas gry całość ginie w tle i jest niesłyszalna ale np. już podczas nocnego przeglądania WWW, gdy otoczenie cichnie (mieszkam przy ruchliwej ulicy) dźwięk staje sie bardzo irytujący. Co gorsza pompka cały czas pracuje z ta samą szybkościa więc nie ma tak, że w trybie idle zwalnia i "jęk" jest mniejszy. Niestety producenci nie chwalą się na pudełkach rewizją pompki. Jedyną metodą jest wypróbowanie karty (zapewniam, że będziesz wiedział, że masz "jęczącą") lub zdjęcie pokrywki z wierzchu karty. Głośna rewizja ma kolorowe logo CoolerMaster na chłodzeniu, poprawione rewizje szare/srebrne (z tego co wiem to sa na rynku 3 wersje pompek - kolorowa oraz szare z wypukłym oraz nie wypukłym logo Cooler Master). Generalnie nie wiadomo, czy wszystkie pompki z szarym logiem są ciche a wszystkie z kolorowym głośne, ponieważ większość użytkowników boi się zdejmować pokrywke. Na forum Guru3d człowiek od PR z AMD napisał, że trzeba szukać kart z pompka z szarym napisem, bo te są poprawione. Rozzcarowuje tylko, że według AMD na rynek miała trafić mała ilość kart z głośną pompką ale jak poczytasz zagraniczne fora to dowiesz się, że niektórzy po 3-4 razy wymieniali karty i za każdym razem nowa też była piszcząca. Ciche trafili tylko nieliczni... Według informacji krążących po necie Sapphire wyprodukowało wszystkie karty z pierwszego batcha a inni producenci przepakowywali je tylko w swoje pudła. Największa jest więc szansa na "piszczałkę" u Sapphire (czyli taką jak ja kupiłem, aktualnie odesłana do dystrybutora AB.SA na wymianę - czekam już 3 tygodnie!!!). Mniejsi producenci typu Vertex 3D dużo później mieli w swojej ofercie Fury X więc może u nich jest większa szansa na wylosowanie karty z cichą pompką ale to tylko moje gdybanie...
  15. AMD projektując GCN skupiło się nie tylko na wydajnym przetwarzaniu grafiki ale również na wykorzystaniu GPU do obliczeń. Od 2011 roku AMD dominowało w dziedzinie liczenia na GPU. Nie wiem, czy pamiętacie ale początkowe problemy z dostępnością Hawaii wynikało z tego, że ludzie masowo montowali to do koparek kryptowalut karty AMD. DX11 skryty za masywnym API nie pozwalał na wykorzystanie Asynchronous Compute więc było wykorzystywane tylko w aplikacjach obliczeniowych pisanych w OpenCL. We wczesnych grafikach GCN były 2 jednostki ACE (Asynchronous Compute Engine) w Hawaii, Tondze i Fiji jest już 8 takich jednostek. Co ciekawe Xone ma 2 takie jednostki a PS4 8 (Sony specjalnie poprosiło AMD o większą ilość takich jednostek ponieważ od początku chcieli wykorzystywać GPU do dodatkowych obliczeń), można o tym poczytać w artykule dostępnym na necie, w którym główny projektant PS4 omawiał jakie założenia mieli podczas projektowania konsoli i co przewidywali, że będzie przyszłościowe - niestety czytałem to bardzo dawno i nie pamiętam, gdzie dokładnie to było... W DX12 zrezygnowano z masywnego front-endu API co umożliwia deweloperom lepsze zarządzanie zasobami sprzętowymi. Asynchronous Compute w DX12 jest wykorzystywane w taki sposób, że są dostępne 3 kolejki, do których engine gry może wysyłać rozkazy. Jedna kolejka jest do zadań, które muszą być wykonane w określonej kolejności, do pozostałych dwóch kolejek mogą być delegowane zadania, które nie wymagają określonej kolejności wykonania takie jak obliczenia fizyki, czy postprocessing gotowej sceny. Asynchronic Compute pozwala upakować dodatkowe zadania pomiędzy te z głownej kolejki w taki sposób aby maksymalnie obciążyć GPU (czyli ograniczyć przestoje, w których część GPU nie jest obciążona ponieważ wcześniejsza operacja nie została wykonana). Najlepszym porównaniem ze świata CPU jest Hyper Threading w CPU intela, który podobnie pozwala na lepsze wykorzystanie dostępnych zasobów CPU bez zwiększania fizycznej ilości rdzeni. Maxwelle teoretycznie też obsługują Asynchronous Compute (sterownik zgłasza obecność tego ficzera), lecz wygląda na to, że jest on obsługiwany w większym stopniu software'owo a nie jak w GCN AMD w sposób sprzętowy przez dedykowane do tego jednostki. Powoduje to, że wykorzystanie tej funkcji powoduje nie przyrost a wręcz spadek wydajności na kartach Nvidii przy próbie korzystania z tej funkcji. Ostatnio można było przeczytać oświadczenie Nvidii w sprawie słabych wyników Maxwelli w Ashes of Singuarity po przejściu na DX12 (wydajność wręcz spadała względem DX11), w którym firma zarzekała się, że tytuł ten nie może być brany pod uwagę jako miarodajny benchmark. Wiele osób podejrzewało, że Oxide zoptymalizowało silnik pod grafiki AMD. Jeden z twórców gry wypowiedział się jednak w tej sprawie pisząc, że jedyną optymalizacją jakia została poczyniona pod konkretny sprzet w grze było wyłączenie Asynchronous Compute w przypadku Nvidii, ponieważ powodowało to bardzo duże spadki wydajności (optymalizacja poczyniona na prośbę Nvidii po konsultacjach z ich developerami). Podsumowując sam ficzer jest bardzo ciekawy, ponieważ na sprzęcie go obsługującym pozwala na uzyskanie dodatkowej wydajności teoretycznie "za darmo". AMD ciężko sobie zapracowało na tę przewagę poświęcając energie na Mantle, w którym po raz pierwszy ta funkcja została wykorzystana. Jako, że pomysł jest dobry, to został tez wykorzystany w DX12 i będzie również w Vulkanie, który bezpośrenio bazuje na Mantle. Jestem pewien, że w Pascalu Nvidia udoskonali ten ficzer na dużą skale(i może być tak jak było z telestacją, że będzie nawet górować nad AMD), lecz obecne grafiki NV wydają się być w tej dziedzinie stracone. Dla posiadaczy NV pocieszenie jest takie, że w 2015 na bank będzie dominował DX11, w którym Maxwell góruje ze względu na to, że jest architektura bardziej "szeregową" niż GCN. Możliwe jest równiez to, że Nvidia będzie wymuszała na deweloperach nie korzystanie z tej funkcji, co spowoduje przywrócenie dawnego porządku. Niestety ale nadbudowy typu Gameworks bardzo ułatwiają takie działania. Nie wszyscy jednak na to pójdą - następną gra korzystającą z Asynchronous Compute ma być Fable Legends, które wyjdzie w październiku.
  16. Mam Sapphire Fury X, niestety wygląda na to, że wylosowałem wersje z głośną pompką... BTW wygląda na to,​ że Fury Pro da się odblokowywać. (; http://www.overclock.net/t/1567179/activation-of-cores-in-hawaii-tonga-and-fiji-unlockability-tester-ver-1-6-and-atomtool/120#post_24256484 ​
  17. Jaki masz monitor? Jeżeli to coś poniżej Full HD to spokojnie możesz kupić APU AMD7850K -> trochę ponad 500zł.
  18. W komputroniku można już zamawiać Fury X - dostępność od 6 lipca. Ciekawe kiedy pojawi się w innych sklepach.
  19. Jakoś strasznie dużo wyszło, wydaje mi się, że za tyle kasy dobry konfig z i7 5960x się złoży...
  20. Ile w tej chwili wychodzi suma za komponenty? W pamięciach szukaj zestawu 4 kości (żeby quad channel działał), pojemność - myśle, że do tej platformy optymalna ilość to 16 lub 32GB, szybkość - patrzyłbym na kości z taktowaniem min. 2400MHz (DDR4 ma większe opóźnienia niż DDR3 więc warto pójść w wyższe taktowania, żeby to nadrobić), czasy dostępu (CL) - im niższe dla danej szybkości tym lepiej. Radiatory na pamięciach - poza sytuacjami ekstremalnego OC z podnoszeniem napięcia pełnią obecnie raczej funkcje estetyczną (pamięta ktoś jeszcze BH5 lub BH6 Winbonda puszczane na 3.5V? (: ), czasami niektóre zbyt wysokie mogą zawadzać o chłodzenie procesora, trzeba na to uważać.
  21. Seasonic SS-660XP2 http://www.seasonic.ru/products/items/53 Jak widać przewód ATX, który wydawał mi się krótki jest tej samej długości co w BeQuiet - fałszywy alarm z mojej strony więc. Przypomniało mi się powiedzenie: "Na oko to baba umarła". (:
  22. BeQuiet jest prawdopodobnie zbudowany na wnętrznościach Seasonic'a a Superflower to autorska konstrukcja - nie spotkałem się z tą firmą wcześniej ale szybkie sprawdzenie w internecie potwierdza to co pisali poprzednicy. Oba zasilacze w recenzjach dobrze wypadają, Superflower ma jednak wyższą sprawność co może świadczyć o lepszej elektronice. Zwróć uwage przy wyborze na takie kwestie jak długość kabli - w moim Seasonic są dość krótkie i nie jestem pewien, czy długość była by wystarczająca, gdybym miał dużą obudowę z zasilaczem na dole (nie mam tego problemu, ponieważ mam ułożenie zasilacza "jak za czasów PRL'u", czyli u góry). Jeżeli od razu nie potrzebujesz SLI to według mnie nie warto o tym myśleć - za jakiś czas (raczej nie będzie to bardzo szybko) gdy pojedyncza karta przestanie wystarczać lepiej będzie ją sprzedać i kupić aktualnego championa, który zapewni wydajność jak w SLI przy połowie TDP. (: Wrzuć swój config do kalkulatora PSU, np: http://www.extreme.outervision.com/psucalculatorlite.jsp i zobacz jakie przewidywane obciążenie będą generowały podzespoły. Zasilacze mają najwyższą sprawność przy obciążeniu ~50%. Zobacz mój konfig - w max. obciążeniu moc pobierana przez zasilacz ~550W (PSU test w OCCP), gdzie grafika jest dużo bardziej prądożerna a dwa procesory dwunastordzeniowe też swoje pobierają. (; Odnośnie Intel Core i7 5930K to ma on 40 linii PCI-E w porównaniu do 28 linii w 5820K. Na płytach bez układów PLX (które są w Asrocku i Asusie z początku tematu) wiązałoby się to z ograniczeniami w dostępności aktywnych portów PCI-E. Gdybyś chciał budować konfiguracje z kilkoma GPU (np 2 karty) - miałbyś sloty z GPU ustawione jako 16x/8x i niektóre sloty na płycie musiałyby być nieaktywne. Na podstawie dokumentacji płyty Asus X99-E WS (strona "X" oraz 1-10) wnioskuje, że mostki PLX rozwiązują ten problem. http://dlcdnet.asus.com/pub/ASUS/server/e9552_x99_e_ws_ug_for_web_only.pdf
  23. W przypadku zasilacza brałbym pod uwage raczej produkty firm będących bezpośrednio producentem zasilaczy, czyli np. Seasonic (SS-660XP2, SS-760XP2, SS-860XP2), Enermax ( EPM600AWT, EPM750AWT, EPM850AWT), Fortron (PT-650M, PT-850). Po co płacić dodatkowym pośrednikom. Sam od siebie polecam zasilacze Seasonic z serii Platinum - mają możliwość pracy w trybie półpasywnym (do pewnego obciążenia), długi okres gwarancji, dobre komponenty - nie chodzi tylko o kondensatory ale nawet wentylator, który wyprodukowało Sanyo. Warto rozważyć kupno tego sprzętu.
  24. Jeżeli chodzi o płyte to wybrałbym zdecydowanie Asusa. Zarówno po wyglądzie jak i specyfikacji (i tym w jaki sposób została ujęta) widać jaka ideą kierował się producent przy tworzeniu tej płyty - stworzenie stabilnej platformy do stacji roboczej. Czytam specyfikacje Asrocka i co widzę...płyta została nafaszerowana wszystkimi możliwymi ficzerami, ma nawet dedykowany sprzętowy kontroler SAS3 LSI (przepustowość 12Gb/s, czyli dwa razy więcej niż SATAIII). Ogólnie liczba interfejsów większa niż w płytach serwerowych. (: Sekcja zasilania z wydajnością ponad 500A, która spokojnie wystarczyłaby na zasilenie kilku procesorów. Wyłania mi się tu obraz płyty, w której producent chciał oszołomić kupującego ilością wszystkiego wybiegającą daleko poza racjonalne granice aż do totalnego absurdu. Jest to coś a la "Bounce Car" o mocy 5000KM lub połączenie wózka widłowego z samochodem wyścigowym. (: Jestem pewien, że ten wentylatorek to najsłabsze ogniwo i za 2 lata będzie hałasował jak pralka frania. Odnośnie dysków to na system brałbym nośnik SSD nie mniejszy niż 256GB a drugi dysk SSD 512GB lub nawet 1TB (przy tym budżecie wydaje mi się to rozsądne). Jeżeli chodzi o typ to moim zdaniem spokojnie wystarczy SATAIII. Dyski SSD wyprzedziły rozwój systemów operacyjnych...podczas pracy nie odczujesz różnicy w wydajności pomiędzy dyskami SATAIII a M2 itd... Sam mam 2 SSD pracujące w RAID 0 i poza benchmarkami nie widzę różnicy w pracy w porównianiu do używania 1 SSD. Na Twoim miejscu brałbym albo Samsung 850Pro albo Plextor M6 Pro. Poza tym na zakup kompa masz tyle czasu, że spokojnie możesz przeczytać recenzje wszystkich proponowanych sprzętów poświęcając 15 minut dziennie. To najlepsze wyjście i będziesz miał największą satysfakcje z tak złożonego komputera.
  25. To prawda, Adobe Premiere i Sony Vegas pozwalają na rendering GPU ale nie wiadomo (sam tego nie sprawdzałem), czy zawsze uzyska się tą samą jakość co przy renderingu CPU. Wątpliwość wynika z tego, że od urządzeń OpenCL nie jest wymagana 100% zgodność ze standardem IEEE 754. Ponownie masz racje, przy zaawansowanej obróbce spokojnie da się stworzyć sytuacje, gdzie 16GB nie starczy...tylko czy tyczy się to autora tematu? W sumie nie określił jak duże to mają być projekty...może nie trzeba takiego monstrum komputera bo i5 będzie tutaj wystarczające. Jakby nie było RAM zawsze najłatwiej rozbudować. (:
×
×
  • Create New...