Jump to content

udam_u

Stały użytkownik
  • Posts

    444
  • Joined

  • Last visited

  • Days Won

    3

Everything posted by udam_u

  1. Nie widziałem nigdzie informacji z wiarygodnego źródła, że seria 4000 będzie dalej na AM4 (dotychczas tylko spekulacje bazujące na starej informacji, że AM4 do 2020 ma być supportowane...). Podaj link do źródła, gdzie AMD to podało?
  2. Na temat Ryzen 4000 niewiele wiadomo jak na razie i tak na prawdę nikt ci nie powie, czy będą one na AM4, czy już na jakiś nowy socket. W każdym razie do tej pory było tak, że procki z serii do R7 na standardowych ustawieniach (bez OC) śmigały bez problemu na każdej płycie z B450 i nigdy nie słyszałem aby ktoś narzekał, że mu VRM nie wyrabia. Odnośnie wiedzy na temat porównania jakości VRM pomiędzy różnymi modelami płyt polecam zapoznać się z tym arkuszem: AM4 mobo vrm tier list tutaj fajniejsza wersja: AM4 mobo VRM tier list part deux
  3. Jak to mają być jakieś wielogodzinne obliczenia naukowe, których wyniki są cenne, to nie podkręcałbym tych pamięci do granic możliwości, tylko zszedłbym oczko niżej, niż poziom, który wydaje ci się stabilny -> czli jakieś 2993MT/s lub 3200MT/s max. 1 bit zostanie przekłamany i bluescreen poleci/kernel panic (lepiej) lub rezultaty mogą się różnić o kilka rzędów wielkości (gorzej)... [:
  4. Z kronikarskiego obowiązku (oraz dla osób, które się jeszcze zastanawiają, czy ta płyta daje radę) mój Prime X370-Pro doczekał się kolejnego upgrade CPU, tym razem do R9 3950X (zgodnie z tym co planowałem kiedyś, czyli maksymalnie wykorzystać te platformę :P). Wszystko poszło prawie bezproblemowo - trudność z demontażem CPU powoli staje się dla mnie tradycją. Na poprzedniego R7 2700X zamontowałem stockowego Wraith PRISM dostarczonego z CPU i zaaplikowana pastą. Pasta była tak ładnie naniesiona, że postanowiłem ją zostawić. xD Po prawie 2 latach znowu pasta skamieniała (patrz kilka postów do góry, gdy był upgrade z R7 1700 -> R7 2700X) i nie dało się procesora normalnie zdemontować z płyty. Odczepiając zapinkę coolera i próbując ruszać radiatorem lewo/prawo ustrojstwo ani drgnęło, natomiast płyta zaczynała wydawać niepokojące odgłosy, dlatego odpuściłem i tradycyjnie wyszarpałem procek do góry (metoda lipa ale wydaje mi się, że bezpieczniejsza od próby działania większą siła na boki aby procesor pozostał w sockecie a radiator odszedł od CPU). Oczywiście musiało się to skończyć jak na załączonym obrazku, na szczęście nic się nie uszkodziło. Procesor w stanie jak poniżej udało mi się oderwać od radiatora przy pomocy szpachli, którą normalnie używam do odklejania modeli od stołu drukarki 3D. Uwierzcie mi, że nawet jak miałem to wszystko na wierzchu z dobrym dostępem i z solidnym narzędziem do podważania to i tak łatwo nie było... xD Instalacja R9 3950X przebiegła natomiast bezproblemowo (użyłem tego samego coolera co na R7 2700X, czyli Wraith PRISM a pastę dałem Thermal Grizzly Kryonaut). Na pudełku procesora jest napisane, że zalecane jest chłodzenie wodne ale z moich krótkich testów (test PRIME95) oraz recenzji innych testerów wynika, że bez podkręcania (a tego nie robiłem do tej pory na Ryzenach i nie zamierzam ponieważ procki te generalnie słabo się kręcą kosztem dużego zwiększenia wydzielanego ciepła) ten procesor jest bardziej energooszczędny niż R7 2700X, także to stockowe chłodzenie daje w zupełności radę (a mi się ono bardzo podoba, dlatego zostaje aż do śmierci technicznej). Sekcja zasilania nie grzeje się...tak jak pisałem wcześniej procek bez OC wydaje się być mniej prądożerny od R7 2700X. Poniżej wyniki testu Cinebench - myślałem, że na tej płycie pierwszej generacji wyniki będą sporo odstawały od tych z PurePC ale nie jest źle. Aha BIOS używam w wersji BETA z AGESA 1.0.0.4 (jak ktoś to wgrywa to na własne ryzyko). PRIME X370-PRO ComboPI_1004PatchB
  5. Wybacz, nie zaglądałem tutaj ostatnio. Odnośnie pytania to nie pchalbym się w Vege pierwszej generacji (nawet taki fanboy AMD jak ja sobie to odpuścił, bo była to dość mocno rozczarowująca generacja). Nawet jeżeli teraz te grafiki są o wiele lepiej wycenione to nadal razi ich prądożerność względem odpowiednika wydajnosciowego Nvidii. RTX2060 lub GTX 1080 będą lepszym wyborem. Pozdrawiam
  6. Ciekawy temat. Rozumiem, że masz już RTX2070? Przekonałeś się już sam, że jest różnica względem GTX 970? (: Obawiać się, że procesor całkowicie nie pozwoli rozwinąć skrzydeł nowej karcie graficznej mógłbyś się tylko wtedy, gdyby GTX970 zawsze był obciążany na 100% na obecnym CPU. Czyli pewnie na jakimś i3 coś takiego by wystąpiło - ale od dłuższego czasu wiadomo, że procesory dual core do grania się nie nadają. Nawet jednak w takiej całkowicie pesymistycznej sytuacji znalazłby się przypadek gry, w której karta graficzna z 2x większą ilością VRAM sprawuje się lepiej. Piszę to w nawiązaniu do tego stwierdzenia (czepiam się i wiem, że to nieładnie ale nie mogłem się pohamować...): "W przypadku GTX 2070 procesor będzie blokował około ~35% wydajności karty graficznej (czyli po przesiadce z 970 nie odczujesz żadnej różnicy). " Forumowicze podają te % bootlenecki ale bez odniesienia do konkretów - to jest w jakimś pojedynczym tytule, czy średnia z kilku? Jeżeli to drugie to z jakich gier? (: Poza tym oczywistym jest, że między generacjami procesorów będzie widoczna różnica ~10% bo przecież producenci wydając nowe jednostki takie przyrosty oferują aby uzasadnić sens wymiany. W każdym jednak razie trzeba to na chłodno przemyśleć - takie hipotetyczne 10-15% bootlenecka zakładając, że na szybszym CPU gra będzie pracowała w 60fps daje 6-9fps mniej...to chyba nie jest totalna tragedia? Z ciekawości sprawdziłem jak gry, o których wspominasz skalują się ze wzrostem ilości rdzeni i wyniki są interesujące. W Metro Exodus procesor 4core/4 threads zachowuje się identycznie jak 4core/8threads (w przypadku AMD multi-threading nawet zaszkodził)... (: Metro Exodus cpu scaling W AC Odyssey widać już większą przewagę 4c/8thread nad 4c/4thread. Wydaje się też, że gra nie wykorzystuje więcej niż 6core/12threads (test w niskiej rozdzielczości wykonany, także raczej grafika nie jest ograniczeniem - prawdopodobnie któryś rdzeń jest obciążony o wiele bardziej niż pozostałe i zegar CPU by trzeba było podbijać aby uzyskać kolejne zyski fps). AC Odyssey Czyli przechodząc z obecnego CPU na 4790k w Metro mógłbyś zyskać nic a w AC trochę więcej ale patrząc na ceny tych jednostek nas Allegro, nie jest to opłacalne. Chyba, że jakoś mega okazyjnie w cenie 2x niższej niż na Allegro od kogoś byś upolował. W przeciwnym wypadku lepiej migrować na Ryzena 2600/2600X z jakąś przyzwoitą płytą i pamięciami 3000MT/s. Po premierze serii 3000 ewentualnie przeskoczysz wymieniając samo CPU (jeżeli będzie potrzeba bo ten CPU jeszcze na sporo czasu wystarczy według mnie). Możliwe, że te niskie wydajności, które odnotowałeś są związane ze starzeniem się całej platformy. Same rdzenie to nie wszystko, z nowszymi CPU masz też szybsze pamięci, dodatkowe instrukcje, usprawnienia cache itd... Pamiętam, że kiedyś pisałem do developerów 3DM, czy zamierzają dodać obsługę procków K10 do 3DM Time Spy. Odpisali mi, że ze względu na brak SSSE3 alternatywna ścieżka wykonania zawierała by kilka razy więcej instrukcji assemblera, co całkowicie zabiłoby wydajność... Jeżeli zdecydujesz się na Ryzen+płyta+RAM sprawdź koniecznie na stronie producenta płyty, czy pamięci, które wybrałeś są na liście kompatybilności i czy pracują z deklarowaną szybkością (z tym są problemy na platformie AMD i trzeba bardziej uważać niż na Intelu). EDIT: Jeżeli chcesz upgrejdować (a to największa zaleta AM4) to płytka do przemyślenia - brałbym taką, która ma dość dobry VRM (seria 3000 Ryzen będzie oferowała więcej rdzeni i w najszybszych CPU podejrzewam, że TDP będzie wyższe niż w obecnym Ryzen 2700X). Coś z wiersza Midrange tej tabeli bym celował: AM4 B450/X470 VRM Tier List
  7. Z tych co wymieniłeś bralbym RTX2060, jeżeli jesteś w stanie tyle wyłożyć. Oczywiście zakladajac, że będziesz chciał ten konfig dalej rozbudowywać w przyszłości. W komputerach zawsze coś jest wąskim gardłem, zależy jakie warunki testowe stworzysz. Lepsza grafika zapewni ci, że z jej powodu nie będziesz miał dropów a w wielu produkcjach będziesz mógł bardzo wysokie ustawienia wybrać, bo nie są w nich wymagane mocne CPU (np. Resident Evil 2 głównie na GPU siedzi). Przy mocniejszej grafice teraz nie będziesz mial w przyszłości kolejnego dylematu, czy brać taki CPU, czy wolniejszy bo w wielu grach GPU znowu nie pozwoli rozwinąć skrzydeł. Nawet jak teraz będziesz miał GPU ograniczone przez CPU to będzie ono z tego powodu brało mniej prądu i ciszej pracowało. Tak mi się wydaje będzie lepiej niż brać teraz słabsza kartę i później odsprzedając też zawsze coś stracisz. Najlepiej się według mnie wychodzi stopniowo upgrejdujac sprzęt niż raz na 4 lata wywalać 8k za średni sprzęt bo ceny za podzespoły są cały czas windowane i za to co kiedyś można było kupić bardzo mocny komputer, teraz kupisz średni. Jak patrzę na te zestawy za 20k to się łapie za głowę bo za tyle pieniędzy to bym się spodziewał kosmosu jakiegoś a w tych czasach są to tylko bardzo dobre maszyny. (:
  8. Jak teraz masz takie problemy z uruchamianiem to warto by jednak było platformę zaktualizować bo to co masz to tykającą bomba (prawie na pewno zimne luty). Piekarnik to nie jest też lekarstwo-przewijaja się legendy, że komuś to pomogło ale przeważnie był to efekt krotkoterminowy i po chwili problemy powracały. Pomijam już fakt, że o ile scalaki piekarnik spoko przetrwają to kondensatory dostaną po tyłku. Zastanów się tak jak ktoś wyżej pisał nad płytą na B450 z przyzwoita sekcja i jakimś Ryzenem 2600/2600X, będzie na nim lepiej niż na obecnym CPU i bez problemu na dłuższy czas wystarczy a jak będziesz chciał to na coś z serii 3000 wymienisz nie tracąc wiele jak tylko się pojawi. Karta graficzna teraz najbardziej jest istotna w grach. Weź pod uwagę GTX1080 lub RTX2060. Ten drugi nowszy i teoretycznie bardziej future proof ale GTX1080 ma za to więcej RAMu...ciężko powiedzieć co w przyszłości lepiej wytrzyma, sporo będzie zależało od tego ile pamięci wrzuca do konsol nowej generacji...to będzie punktem odniesienia dla deweloperów.
  9. 1500PLN to już chyba jakiegoś RTX2060 możesz upolować. Wydajność podobna do 1080 a architektura nowsza i jak to zwykle bywa nowsze gry powinny na nim lepiej śmigać, bo z czasem starsze grafiki stają się marginalizowane. Istotną wada RTX2060 to 6GB RAM. Niby teraz to ok ale jak za jakiś czas okaże się, że 8GB jest zalecane do gier i faktycznie developerzy zaczną takie tekstury ładować do gier to będziesz musiał obniżać jakość tekstur albo pogodzić się z dropami FPS. Z tymi teksturami to jest tak, że jak są w wyższej rozdzielczości to wyraźnie poprawiają jakość obrazu a jak się mieszczą w VRAM to zmiana ich jakości ma pomijalny wpływ na szybkość wyświetlanego obrazu. Gorzej jak tej pamięci brakuje. RAM komputera ma przepustowość o rząd wielkości niższa od tego co jest nawet na kartach ze średniej półki...
  10. Co to dokładnie za sprzęt? Jaki system operacyjny? Polecam poczytać na necie jak wejść do dziennika zdarzeń systemowych i zobaczyć, czy jakieś błędy system w nim zapisal (z grubsza do dziennika dostaniesz się klikając prawym przyciskiem myszki na ikonie mój komputer lub na przycisku windows i wybierasz zarządzaj komputerem, wyskoczy okienko z wieloma opcjami typu zarządzanie dyskami itd. pośród których będzie też menu, w którym sprawdzisz wpisy logów systemowych).
  11. Sprawdzałeś może proponowane zestawy na marzec ze strony głównej? Warto mieć jakiś punkt początkowy, który doprecyzujesz pod Twoje indywidualne preferencje ze specami z forum. https://www.purepc.pl/zestawy_komputerowe/jaki_komputer_kupic_zestawy_komputerowe_na_marzec_2019?page=0,10
  12. Z tym zasilaczem to różnice w sprawności nawet w skali roku nie odczujesz w rachunkach. Różnica to bardziej zaawansowana elektronika (droższa), co moze (ale nie musi) owocować w lepszej regulacji napiec. Różnice te będziesz mógł jednak wykryć przede wszystkim przy pomiarach laboratoryjnych lub jakimś extreme OC przy ciekłym azocie. Części komputerowe są projektowane do poprawnej pracy przy spełnionej normie ATX, która wszystkie przyzwoite zasilacze spełniają z łatwością (te 80plus Brone też). Zasilacze platinium, czy titanium mają za to przeważnie dłuższa gwarancję (wynika to z zastosowania lepszych komponentow aby te kilka procent sprawności więcej dało się uzyskać). Producent wie, że lepsze części są to odważna się dać dłuższa gwarancję. Warto też zauważyć jak te certyfikaty sprawności są nadawane, dla norm od 80plus do 80plus Platinum sprawność przy certyfikacji jest sprawdzana w przedziale 20-100% obciążenia a więc przy niskim obciążeniu np. 10%, co we współczesnych kompach będzie w trybie idle, gdy nic nie robisz obciazajacego - u niektórych to duża część dnia. Powoduje to, że zasilacz ma wtedy sprawność np. 70% i dalej jest zgodny np. z 80plus Platinum. (: Dopiero norma 80plus Titanium wychodzi ponad to i przy certyfikacji jest również sprawdzane obciążenie 10%. Ja zawsze kupowałem zasilacz, czy monitor najlepszy na jaki w danym momencie było mnie stac, ponieważ te elementy zmieniam w komputerze najrzadziej (przeważnie służą do swojej śmierci technicznej). Dlatego jak były dostępne Platinum to brałem Platinum ale też nie przypadkowy, tylko czytałem recenzję bo jedno 80plus drugiemu nie równe.
  13. udam_u

    Radeon VII

    @Pawel1683 Mega estetycznie komp wygląda. (: Jak wrażenia z użytkowania karcioszki? Z czego się przesiadles?
  14. Sprawdziłem dzisiaj stronkę Asusa i... pojawił się nowy wsad UEFI do mojej płytki Asus Prime X370-PRO. Wersja 4406 2019/03/11 10.24 MBytes PRIME X370-PRO BIOS 4406 Update AGESA 0070 for the upcoming processors and improve some CPU compatibility. ASUS strongly recommends that you update AMD chipset driver 18.50.16 or later before updating BIOS. Czyżby seria 3000 miała nadejść przed świętami Wielkiejnocy? xD
  15. Kilka dni temu oglądałem na kanale YouTube "The Good Old Gamer" ciekawy filmik na temat aktualnych praktyk Nvidii odnośnie "planowanego postarzania" produktów (Planned Obsolescence Fact or Fiction!?!). Wiele teorii spiskowych przelało się na forach odnośnie celowego zaniżania wydajności poprzez sterowniki w starszych kartach Nvidii. Mimo to wydaje mi się, że nikt nigdy czarno na białym tego nie udowodnił. Nie zauważyliśmy jednak innego ciekawego zjawiska (najciemniej jest pod latarnią), które powoduje, że karty starzeją się przedwcześnie zupełnie "na legalu", bez szkodliwej ingerencji w sterownikach. Chodzi właśnie o sztuczne ograniczanie pamięci możliwej do instalacji w poszczególnych modelach kart. Takim przykładem może być np. nowy RTX 2060, który jest całkiem mocną kartą, najbardziej opłacalną ze wszystkich RTX ale też dziwnie ograniczoną jeżeli chodzi o wielkość zainstalowanej pamięci (karta potężniejsza od GTX 1070, porównywalna z GTX1080, posiada 2GB mniej pamięci). RTX2060 sprzeda się najwięcej bo jest najlepiej wycenioną kartą price/performance. Ze wszystkich RTX zestarzeje się ona też najszybciej, ze względu na mniejszą ilość pamięci, stawiając swoich posiadaczy przed wyborem - obniżanie jakości tekstur lub wymiana sprzętu. Ciekawe jest spostrzeżenie autora, że wzrost wydajności kart z generacji na generację przyhamował odrobinę i producenci zainstalowaną pamięcią starają się różnicować segmenty. Owszem testy pokazują, że w serii RTX Nvidia bardzo mocno zoptymalizowała swoje jednostki obliczeniowe i prawdopodobnie ma obecnie przewagę nad AMD nawet w obliczeniach asynchronicznych DX12. Jednak, czy karty dostają po tyłku w nowszych tytułach bardziej przez niewystarczającą moc obliczeniową, czy ograniczoną ilość pamięci w starszych modelach? GTX1080Ti, czy GTX1080 są cały czas niesamowitymi kartami, ponieważ przy ich premierze dokonywał się przeskok jeżeli chodzi o pamięć instalowaną na kartach (dla tych co są nowi przeskok z 6GB na 11GB w przypadku kart Ti). Przy okazji premiery Radeona VII z ciekawością oglądałem wyniki na konkurencyjnym portalu, gdzie poza najnowszymi kartami były wylistowane także wyniki starszych konstrukcji i w niektórych grach/ustawieniach Radeon 390X 8GB składał mojego Fury X 4GB właśnie ze względu na zainstalowaną pamięć (obliczeniowo Fury X jest o wiele potężniejszy!!!). Poza teorią zwalniania starszych kart Nvidii poprzez sterowniki, znana jest też teoria Radeonów, które lepiej znoszą upływ czasu. Zauważcie jednak, że AMD w swoich kartach prawie zawsze jest bardziej hojne jeżeli chodzi o zainstalowaną pamięć (pomijając mojego Fury X i jego 4GB xD). Polecam obejrzenie tego oraz innych materiałów z kanału "The Good Old Gamer", ciekawe spostrzeżenia ma gość... (:
  16. udam_u

    Radeon VII

    @Zgreed66 zrobiłem zgodnie z Twoją sugestią i...dostałem kod! Dzięki (: @umcacz faktycznie widziałem to, w UK niektóre modele cały czas były dostępne. U nas za to nie dość, że 2 tygodnie później to chyba tylko kilka tych kart dotało. Chwilkę po tym jak zamówiłem kartę (na stronce Komputronik) było już, że "produkt nie jest w tej chwili dostępny". W sterowniku można aktywować HBCC, chociaż z wiadomych przyczyn tego nie robię (karta ma 16GB, RAM'u w komputerze też mam 16GB RAM). @Gosu Karty używam na co dzień i jest mi potrzebna. Poza tym nie znam Cie na tyle dobrze aby takie wypożyczenia robić (mimo tego, że jesteś gwiazdą Purepc)...
  17. udam_u

    Radeon VII

    Nie widzę takiego tematu, więc go zacznę. Może jeszcze ktoś poza mną skusi się w PL na zakup Radeona VII i będzie się chciał podzielić swoimi wrażeniami. (: link do testu karty na portalu PurePC: AMD Radeon VII vs NVIDIA GeForce RTX 2080 - Test kart graficznych Radeon VII, pierwsza karta kierowana do graczy wykonana w 7nm technologii oraz wyposażona w 16GB pamięci HBM2 o miażdzącej przepustowości 1TB/s. ^^ Moje przemyślenia na temat karty...wydaje mi się, że jej pokazem na CES 2019 zaskoczone mogły być nawet niektóre osoby związane dotychczas z samym AMD (Raja Koduri). xD Uważam tak, ponieważ z ekonomicznego punktu widzenia istnienie tego produktu wydaje się być nieuzasadnione. Portal Fudzilla spróbował określić koszt wyprodukowania Radeona VII (wyszło 650+$) a szacunki były następujące: 16GB HBM2 320$, łączenie HBM2+GPU+interposer 100USD, PCB+chłodzenie 75USD (komponenty zastosowane w sekcji zasilającej są z najwyższej półki), wytworzenie układu w 7nm oraz uwzględnienie kosztów przygotowania układu przez AMD 155USD (szacuje się, że aktualnie koszt wytworzenia układu w 7nm jest 2 razy wyższy niż w 12/14nm). Karta ta jest dostosowanym do pracy w zwykłym PC akceleratorem MI50 (inne chłodzenie, dezaktywacja obsługi PCI-E 4.0, ograniczenie wydajności FP64 do 1/4 FP32), dedykowanym do pracy w farmach obliczeniowych. Producenci GPU aby zachęcić klientów do kupowania droższych kart PRO zapewniają w nich o wiele wyższą wydajność w obliczeniach FP64, które w grach nie są konieczne ale w obliczeniach naukowych jak najbardziej. Karty PRO są przeważnie wyceniane na kilka tys. $. Dla zwykłego Kowalskiego jest to kwota nie do przyjęcia ale "prosumerzy" już dawno się do tego przyzwyczaili, ponieważ karty na siebie zarobią, łatwiej więc pogodzić się z wysokimi marżami ("czas to pieniądz"). W przypadku kart dla graczy wygląda to trochę inaczej. Karta kosztująca 20tys PLN nie sprzeda się w dużej ilości nawet, jeżeli będzie 4 x wydajniejsza od RTX 2080Ti. Granica, którą jest w stanie przekroczyć zwykły konsument kupując kartę graficzną jest cały czas przesuwana przez producentów ale ma też swoje granice, o których wydaje się, że Nvidia przekonała się przy okazji serii RTX. Wprowadzenie kart RTX było z jednej strony dla wielu ekscytującym wydarzeniem (technologie DXR z raytracingiem na czele) ale z drugiej strony też odrobinę rozczarowaniem, ponieważ przykładowy RTX2080 zadebiutował w takiej samej cenie jak poprzednio najszybszy GTX1080Ti, nie oferując w bieżących produkcjach znacznego wzrostu wydajności. Nvidia poświęciła budżet dostępnych tranzystorów na nowe technologie, które zadebiutowały bez gotowej bazy software (coś jak low level API Mantle i BFIV, teraz znowu BFV został wykorzystany jako pionierski tytuł z DXR). Patrząc jednak na rozmiary tych układów trudno sobie wyobrazić aby ceny RTX były niższe, GTX2080 545mm^2, GTX2080Ti 754mm^2 - to jakieś szaleństwo, ktoś prócz Nvidii produkuje jeszcze takie duże układy? AMD ostatni raz rywalizowało z Nvidią w segmencie highend za czasów Fury X i GTX980Ti. Następna generacja Nvidii tak bardzo odjechała z przed oczu czerwonym, że było to aż przykre. Gdyby Nvidia w kartach RTX tranzystory wykorzystane na jednostki nowego typu przeznaczyłaby na "tradycyjną część GPU", to przy rozmiarach tych układów karty AMD w segmencie highend zostałyby pogrzebane na kolejne kilka lat bez perspektywy powrotu. Tak się jednak nie stało, spora pula tranzystorów poszła na nowe jednostki AI oraz raytracing. Aby dostarczyć oczekiwany skok wydajności pomiędzy generacjami (GTX1080Ti vs RTX2080Ti, GTX 1080 vs RTX2080) chipy stały się ogromne a to sprawiło, że ceny poszybowały do góry. Co gorsza okazało się, że karta nowsza, czyli RTX2080 nie jest w obecnych tytułach wydajniejsza od GTX1080Ti (który startował w tej samej cenie co RTX2080 ale podczas premiery RTX2080 można go było zdobyć o wiele taniej). Podwyższenie cen kart z poszczególnych segmentów oraz zastój jeżeli chodzi współczynnik wydajność/ceny względem poprzedniej generacji spowodował, że AMD zwęszyło możliwość powrotu do segmentu highend z mocno "doładowaną" Vegą 20. Vega 64/56 nie była specjalnie udaną kartą, wyraźnie było widać, że karcie brakuje przepustowości pamięci (dlatego tak dobrze reagowała na OC pamięci) a sama architektura sprawiała wrażenie obarczonej problemami wieku dziecięcego (niby wprowadzone ulepszenia ale IPC zegar w zegar takie samo jak w Fury X), do tego tragiczny współczynnik wydajności/W. Nowy 7nm proces produkcyjny pozwolił w Radeon VII na tyle zmniejszyć GPU, że na interposer zmieściły się dodatkowe 2 układy pamięci HBM2, co pozwoliło na przywrócenie 4096 bitowej magistrali pamięci (tak jak w Fury X) oraz uzyskanie ogromnego transferu pamięci 1TB/s (jest to ~2x więcej niż w najszybszej obecnie konsumenckiej karcie Nvidii oraz Fury X). Poczyniono też inne usprawnienia w architekturze, na które zużyto w sumie dodatkowe 0,7mld tranzystorów. Niby % różnica w sumie użytych tranzystorów pomiędzy Vegą pierwszej a drugiej generacji nie jest duża (12,5 vs 13,2 mld tranzystorów) ale wystarczy sobie przypomnieć, że pod koniec 2006 roku topowy układ GeForce 8800GTX zawierał w całości 0,681mld tranzystorów a był to już układ zgodny z DX10. (: Wszystkie te zabiegi pozwoliły Radeonowi VII na wciśnięcie się wydajnościowo pomiędzy RTX2070 a RTX2080. Jestem jednak prawie pewien, że karta ta nie była planowana jako wypust dla zwykłych graczy (świadczą o tym chociażby na szybko wypuszczone niedopracowane sterowniki ). Po prostu sytuacja stworzona przez Nvidie (wysokie ceny RTX, zastój wydajności) dała Radeonowi VII szansę zaistnienia (cieszę się, że ktoś w AMD podjął taką decyzję). Karta ma dla AMD i ich fanów przede wszystkim znaczenie symboliczne - powrót do wyższego segmentu. Zapewne bardzo wysokie koszty produkcji sprawiają, że karta jest tak słabo dostępna. AMD nie ma szczególnego interesu aby zasypywać rynku tymi kartami, ponieważ nie chce do nich dopłacać (wstępne duże zainteresowanie i "zniknięcie z pułek" było spowodowane na 99% zapowiadaną małą ilością sztuk dostępnych na rynku~5k). Możliwe jest też, że uzysk tych układów jest bardzo niski. 7nm zostało zdominowane przez firmy pokroju Apple, czy Huawei, które potrzebują miliony takich układów jednak o wiele mniejszych i prostszych w produkcji chipów w porównaniu do ponad 300mm^2 Radeona VII. Ja kartę kupiłem ze względu na to, że jestem fanem AMD i chciałem się przesiąść z Fury X, którego 4GB zaczynało dawać o sobie znać w coraz większej ilości tytułów (mikro przycięcia). Z moich obserwacji widzę, że mam ok 100% przyrostu wydajności. Dodatkowo karta ta jest dla mnie bardzo ciekawa ze względu na zastosowaną pamięć HBM2 (z podobnych przesłanek kupiłem kiedyś Fury X) i ogólny highendowy wygląd - nie cierpię tych nowych wyglądów kart z radiatorami w dziwnych kształtach... Rzecz, która może denerwować to głośność wentylatorów podczas pełnego obciążenia karty. Nie jest to tak denerwujący hałas jak kiedyś w turbinie Radeona 290X ale jednak trzeba o tym wspomnieć. Oglądałem na Youtube (AdoredTV), że automatycznie undervoltując kartę w Wattmanie można wyraźnie ograniczyć ilość wydzielanego ciepła i wentylatory pracują wtedy na 1900rpm ale u mnie funkcja automatyczna źle działa (komunikat o tym, że sterownik przestałdziałać, czy cośw tym stylu). Będę w późniejszym czasie ręcznie ten undervolt robił. (: W załączniku zdjęcia mojej karty (sorry za jakość ale wczoraj wieczorem to robiłem przy słabym świetle). Aha kartę kupiłem w Komputroniku - jest to model Asusa (tzn. pudełko Asusa a zapewne Sapphire wyprodukowało) i co ciekawe nie miałem żadnych kuponów na 3 gry (w wielu recenzjach na necie było o tym wspomniane, na pudełku karty i na stronie produktu w Komputronik nie ma jednak nic wspomnianego na ten temat).
  18. Przeliczałeś kiedykolwiek w popularnych kalkulatorach jakie obciążenie mogą generować Twoje podzespoły? Sprzęt ten pochodzi z epoki, gdy wymagane były w zasilaczach silne linie 5V, ponieważ to z nich było konwertowane napięcie dla CPU. Dlatego zobacz sobie na tabliczce znamionowej, że to deklarowane 550W jest podzielone na 3.3, 5 oraz 12V. Przy czym na 3.3 oraz 5V będzie przypadało o wiele więcej niż w aktualnie produkowanych konstrukcjach. We współczesnych komputerach eksploatowana jest przede wszystkim linia 12V a 5V ma znaczenie marginalne (przeważnie wydajność tej linii to ~100W). Twój zasilacz 550W ma wydajność linii 12V 336W i jako zasilacz tej klasy powinieneś go traktować zasilając nim nowe "bebechy komputerowe". Jeżeli nie masz prądożernego sprzętu to ten zasilacz może jeszcze sporo czasu posłużyć.
  19. Jak ustawiasz na sztywno to omijasz limit TDP. (: XFR robi to z automatu ale ma ustawione ograniczenia - nie przekrocz TDP, temperatura nie może być wyższa niż...itp itd. (: Cinebench trwa tylko chwilkę i CPU nie zdąży się nagrzać do punktu zrzucania zegara (bo chłodzenie ma pewną pojemność cieplną). Dlatego coś takiego widziałeś.
  20. Wydaje mi się, że wszystko ok u Ciebie. Możesz jeszcze ewentualnie odpalić sobie Cinebench R15 na single core aby potwierdzić sobie, że procek zaboostuje na 4.2-4.3GHz gdy jest 1 rdzeń mocno obciązony, chociaż nawet z tego zrzutu powyżej, widać, że mu się to zdarza. Blender bardzo mocno obciąża wszystkie rdzenie. To jest tak jakbyś odpalił jakiegoś prime95. Procesor przy takim obciążeniu zbija zegary (bo osiąga a nawet przekracza TDP a temperatura dobija do 70 stopni, przy których algorytm obniża zegary) - u mnie na stockowym coolerze nawet poniżej 3800MHz w takim Blenderze. Wnioski z testów, które widziałeś w internecie tyczyły się zapewne innych aplikacji, typu współczesne gry, które nie obciążają wszystkich rdzeni na max i wtedy CPU zaboostuje wyżej. Stąd taka opinia, że procek powinien iść spokojnie na 4GHz z turbo w automacie. (: Montując jeszcze lepsze chłodzenie mógłbyś ugrać kolejne megaherce (algorytm podbijania zegarów bierze pod uwagę temperaturę procka oraz TDP aktualne) ale zysk będzie niewspółmiernie niski do poniesionych kosztów. Nic nie musisz więcej sprawdzać. Pozdrawiam
  21. To nie jest normalne. Coś masz źle zmontowane albo źle ustawione w UEFI. Sprawdź rzeczy, o których wspomniałem. Nikt tutaj nie będzie cie za język ciągnął... Z fusów nie da się nic wywróżyć. Albo sam zbierzesz wszystkie fakty i wyciągniesz stosowne wnioski albo wrzucisz tutaj tyle informacji, że ktoś to zrobi za ciebie. Zainstaluj hwinfo64 i pokaż zakładkę sensor status. U mnie wygląda to tak:
  22. Cześć, a to 3825 to masz w idle, czy przy jakimś obciążeniu? Wydaje mi się, że przyczyną jest zbyt wysoka temperatura CPU. W moim procku zauważyłem, że zbija on takty (a płyta wyraźnie przyśpiesza wentylator) właśnie po osiągnięciu 70st. Przy czym dzieje się to tylko, gdy odpalę jakiś mocno wielowątkowy test. Żadna gra nie zbija taktów poniżej 4GHz (a używam gorszej płyty na X370 i stockowego coolera). Upewnij się, że cooler jest poprawnie zamontowany, sprawdź, czy pasta termoprzewodząca jest ok rozprowadzona. Poza tym sprawdź ustawienia biosu - czy wentylatory od coolera nie są jakoś masakrycznie skręcone oraz, czy napięcia na CPU nie masz jakiegoś kosmicznego ustawionego.
  23. @horigoshi jeżeli nie masz kolegi z CPU Ryzen 1 generacji, to niektóre sklepy oferują za "symboliczną opłatą" upgrade biosu, np. w Proline za ~50zł było.
  24. @michalpaw358 A temperatura CPU jest ok? Może pamięci na 2400MHz spróbuj.
×
×
  • Create New...