Skocz do zawartości

udam_u

Stały użytkownik
  • Liczba zawartości

    441
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    3

Zawartość dodana przez udam_u

  1. W skrócie tak jak napisał reyden pamięci z wyższymi zegarami i wyższymi CL przeważnie dadzą wyższą wydajność niż pamięci z niższym zegarem i niższym CL. Wynika to z tego, że czas dostępu nie warunkuje jedynie parametr CL (mówiący po ilu cyklach od żądania kontrolera dane będą gotowe do odczytu) ale też czasu trwania cyklu będący ściśle związany z częstotliwością pamięci. Rzeczywisty czas dostępu = czas cyklu x CL. Tutaj mały przykład na pamięciach DDR 4 3000 CL15 oraz DDR4 2400 CL12. Czas cyklu dla pamięci DDR4 3000 to 1/1500 000 000 = 0,66ns, co przy CL 15 daje rzeczywiste opóźnienie 0,66 x 15 = 9,9ns. Czas cyklu dla pamięci DDR4 2400 to 1/1200 000 000 = 0,83ns, co przy CL12 daje rzeczywiste opóźnienie 0,83 x 12 = 9,96ns. Tak więc jak widzisz, rzeczywiste opóźnienia są prawie równe (trochę niższe w wyżej taktowanym module), za to ilość danych możliwych do przetransferowania w ciągu jednostki czasu będzie dużo wyższa dla wyżej taktowanych modułów, co w zastosowaniach wymagających dużej przepustowości pamięci może się przełożyć na znaczny wzrost wydajności. Najciekawsze w tym wszystkim jest to, że pomiędzy wszystkimi generacjami pamięci DDR1, ..., DDR4 rzeczywisty czas dostępu jest bardzo podobny a jedyne co znacznie wzrosło to przepustowość. Powoduje to, że w nowych procesorach coraz istotniejszą rolę odgrywają wysoko wydajne systemy pamięci cache, które muszą pokryć opóźnienia pamięci utrzymujące się na podobnym poziomie od wielu lat...
  2. @up bardzo fajny teścik, sam korzystam z Adobe Lightroom, szukałem czegoś takiego, dzięki. (: Generalnie w tym teście widać, że aplikacje Adobe nie są jakoś mega wielowątkowe i większa jest korzyść z mniejszej ilości mocniejszych rdzeni (w większości testów). Trzeba jednak wziąć pod uwagę, że takie benchmarki są wykonywane w "sterylnych warunkach" tzn. nic się na kompach nie wykonuje podczas bencha aby nie zaburzyć wyniku i nie wprowadzać dodatkowych zmiennych. Ciekawe jakby to wyglądało, gdyby odpalić jakieś eksporty w tle i równolegle jakieś inne zadanie zacząc wykonywać. Im więcej rdzeni tym większa responsywność systemu podczas obciążenia. Ryzen pokonał mje poprzednie proce (24 rdzenie 2xOpteron 6180SE) w praktycznie wszystkich benchmarkach (nie uwzględniając jakichś pojedynczych typu przepustowość pamięci). Jednak gdy odpalałem benchmarki typu AIDA to komp na Ryzenie zamiera i na czas testu system jakby się zamraża. Na opteronach nigdy nic takiego nie miało miejsca, zasobów było tyle, że niezależnie co bym robił zawsze mogłem przełączać okna i nic nie zamarzało. Kolega musi się zastanowić co mu będzie lepiej pasowało. Żeby nie było, że jestem jakimś Intelowym malkontentem (i fanboyem AMD) uważam, że bardzo fajny zestawik zaproponowałeś. (:
  3. Zdecydowanie polecam Ryzena do tych zastosowań - szczególnie R7 1700 jest opłacalny, ponieważ odpada koszt chłodzenia - stockowe bardzo dobrze sobie radzi z tym CPU, nawet po lekkim OC. Jeżeli planujesz mocniejsze OC i lepszy cooler, to też ten model bym radził i ewentualnie lepszą płytę, bo z tego co się orientowałem na necie, to wszystkie R7 kręcą się podobnie. Jedyna uwaga to ramy - warto sprawdzić na stronie producenta płyty, jak lata wybrany model, bo kompatybilność jest o wiele gorsza niż w przypadku Intela i kupując na ślepo można skończyć ze stabilnym 2133MHz...
  4. Miałem czekać na Naples ale wydajność Ryzen tak mnie pozytywnie zaskoczyła, że się zdecydowałem na R7 1700 + Asus X370 Prime. Niezły procek, faktycznie to 65W to nie ściema na stockowych zegarach nawet ten domyślny układ chłodzenia jest aż nadto. (: Pierwsza fota nowego builda - wiem, że kiepska jakość. (; A tutaj wyniki Cinebench15 bez i z OC + porównanie do mojej poprzedniej platformy, która została łatwo zdetronizowana w tym zastosowaniu. ^^
  5. Gdy ludzie używający kart 970 do obliczeń odkryli, że wydajność spada po zaalokowaniu więcej niż 3,5GB Nvidia wydała oświadczenie w tej sprawie. Nie sądzę, żeby mieli w poważaniu swoich klientów. Szczerze to nie widze różnicy na tej kratce - jedyne co widzę to inne ustawienia kontrastu po cieniach.
  6. Taki "typowy Janusz" jak ja nie zauważy tego, szczególnie jak nie będzie to porównanie jak na tym filmiku i nie będzie podanej sekundy. :D Taka teoria spiskowa jest możliwa, kto wie może więcej osób zwróci na to uwagę, zrobi się troche szumu w internecie, Nvidia będzie się musiała ustosunkować i gó... wypłynie na wierzch. [:
  7. Widać to wyraźnie na tym filmiku - szacun, że to wyłapałeś. Pytanie tylko, czy to celowe zagranie mające na celu zwiększenie wydajności GTX1080, czy tylko bug w sterownikach. Zobacz na przykład filmik z prezentacji Rx480. Grafika wygląda inaczej na sprzęcie Nvidii oraz AMD, okazało się poźniej, że różnica wynikała z tego, że jakiś shader źle działał na sprzęcie Nvidii (bug w driverze). Poza tym producenci sami też w sterownikach udostępniają opcje optymalizacji. Kiedyś się zdziwiłem wchodząc w ustawienia mojego Radeona (ustawienia globalne), gdzie tryb teselacji bł ustawiony na "Optymalizacja AMD". Nigdy tego ustawienia sam nie zmieniałem, driver po instalacji miał taką wartość domyślnie (oczywiście jest też opcja "ustawienia aplikacji" ale samemu to trzeba przełączyć). Acha jest też opcja "Optymalizacja formatu powierzchni". [: Gdyby teraz porównać obraz z Radeona i GF, możliwe, że dałoby się wyłapać różnice. Nie mamy 100% pewności, że na tym przytoczonym filmiku nie ma podobnej sytuacji (no chyba, że autor specjalnie zwracał na to uwagę i błąd ten jest wykluczony).
  8. No to akurat znany epizod w historii Nvidii i nie tylko w 3D Marku ten przekręt był widoczny - w Far Cry również udowadniano zmniejszenie precyzji obliczeń na NV30/NV35. ATI swoją architekturą R300 odskoczyło tak daleko, że tylko posiłkując się nieuczciwymi trikami Nvidia mogła nawiązać walkę w słupkach wydajności (chociaż ATI też swego czasu kombinowało obniżając poziom MIPmap, było to chyba przy generacji R200). Wydaje mi się, że w obecnych czasach takie zagrywki byłyby dużo bardziej ryzykowne niż kiedyś. Czy w Pascalu jest AC? To zależy jak zdefiniujemy AC. Jeżeli traktujemy to na poziomie API, jako możliwość wykonywania listy zadań w kolejce COMPUTE to widać, że obecnie jest taka możliwość w Pascalach. Jeżeli traktować to na poziomie sprzętowym to...no szczerze nie wiadomo jak to porównywać, ponieważ są to różne architektury i jest to jak porównywanie HT Intela do modułów AMD. Inna jest na pewno zasada działania i musiałaby to przeanalizować i porównać osoba orientująca się w obu architekturach na poziomie o wiele niższym niż to na czym można bazować czytając w internetach. No i oczywiście w jakiejś specyfikacji musiało by być określone jakie warunki sprzęt ma spełniać aby go uznać za AC capable. Dla programistów kluczowe jest, żeby ficzer był dostępny z poziomu API i nie wymagał jakichś karkołomnych operacji, żeby były z niego korzyści (tutaj w przypadku GeForców jest to chyba trochę kłopotliwe - myślę o pamiętnej liście Do's And Dont's Nvidii).
  9. To zależy, czy do 1060 będziesz musiał dokładać? Jeżeli nie to warto wymienić, w przeciwnym wypadku dozbierałbym do 1070.
  10. Super test! Wole nie mysleć ile czasu na to poświęciłeś. Czekam na reszte. (:
  11. Ostanimi czasy pojawiło się wiele wątpliwości odnośnie testu Time Spy. Większość tyczyła się sposobu implementacji Asynchronous Compute. Chodzi o podejrzenie implementacji sprzyjającej produktom Nvidii (stąd przyrost wydajności na Pascalach), która z kolei nie pozwalałaby rozwinąć w pełni skrzydeł Radeonom. Futuremark nie zwlekał długo z udzieleniem odpowiedzi i na swojej stronie wydał oficjalne oświadczenie. http://www.futuremark.com/pressreleases/a-closer-look-at-asynchronous-compute-in-3dmark-time-spy?_ga=1.72176851.1110393204.1468547815 W skrócie z publikacji możemy się dowiedzieć jak wygląda proces tworzenia benchmarka. W jego rozwoju biorą udział najważniejsi gracze na rynku (w tym Nvidia oraz AMD). Tworzony jest jeden build do którego drzewa mają wgląd obaj producenci, mogąc jednocześnie sugerować usprawnienia. Podobno żadnej poprzedniej wersji benchmarka producenci sprzętu nie poświęcili tyle uwagi. W przypadku, gdy występował konflikt interesów pomiędzy firmami z gremium Futuremark producent posiłkował się również opinią developerów gier. Benchmark wykorzystuje tylko jedną "ścieżkę renderowania" dla wszystkich producentów sprzętu. W przeszłości rozważano osobne ścieżki dla poszczególnych vendorów ale porzucono ten pomysł aby zapewnić równe warunki dla wszystkich obecnych oraz przyszłych produktów (które w przypadku optymalizacji ściśle pod jedną architekturę spowodowałyby szybkie zestarzenie się benchmarka). Dalej opisana jest różnica w delegowaniu zadań pomiędzy DX11 oraz DX12 (gdzie jest to proces podzielony) oraz najważniejsze - jak są wykonywane rozkazy z listy komend podczas delegowania do poszczególnych kolejek rozkazów. W DX12 są dostępne 3 kolejki do których moga być delegowane zadania (Direct, Compute, Copy). Jeżeli chodzi o implementacje obliczeń asynchronicznych to z trzech kolejek rozkazów istniejących w DX12 (Direct, Compute, Copy) w Time Spy wykorzystywane są 2 z nich. Kolejka Copy służąca do streamingu danych nie jest wykorzystywana aby uniezależnić wyniki uzyskiwane w benchmarku na wpływ urządzeń pamięci masowych mających różną wydajność w zależności od tego co użytkownik ma w komputerze zamontowane. Rozkazy z poszczególnych list mogą być wykonywane na GPU równolegle ale kluczowe jest tu słowo mogą (mogą ale nie muszą). Generalnie do kolejki Direct (czyli tej odpowiedzialnej za grafikę 3D, 3D queue na slajdzie) może być delegowane zadania z list Direct, Copy oraz Compute. Do kolejki Compute można wysłać zadania z list Compute oraz Copy a kolejka Copy obsługuje tylko listy Copy. To od producenta sprzętu i jego drivera zależy, czy zadania delegowane do sprzętu zostaną wykonane faktycznie równolegle (sposób preferowany przez karty AMD), czy driver sklei je i deleguje do wykonania jako jedna kolejka Direct (jak robi to w przypadku Maxwelli). W przypadku Pascali zadania są delegowane do kolejki Compute jak w Fury z małym zastrzeżeniem, że driver sam tworzy sobie dodatkowe punkty synchronizacji. :D W benchmarku obliczenia asynchroniczne wykorzystywane są do: 1. Particle Simulation 2. Light culling and tiling 3. Environment refections 4. HBAO 5. Unshadowed surface illumination Poniżej graf z zaznaczeniem jak wygląda synchronizacja obliczeń z poszczególnych kolejek w engine Time Spy. Podsumowując wniosek z publikacji taki: 1) Futuremark nie chce faworyzować żadnego z producentów sprzętu. 2) Mimo to, że aplikacja deleguje pracę do wykonania w sposób asynchroniczny, to od drivera zależy w jaki sposób obliczenia zostaną wykonane przez sprzęt (sklejenie do jednej kolejki Direct, czy wykonanie równoległe w kolejkach Direct oraz Compute). Prawdopodobnie dodatkowy koszt sklejania kolejek przez driver powoduje lekki spadek wydajności na Maxwellach. Mam nadzieje, że przyda się to komuś. (: EDIT: Jakby ktoś chciał samemu przeanalizować działanie aplikacji w GPUView, poniżej zamieszczam 3 filmiki mojego autorstwa jak to zrobić. 1) Instalacja 2) Jak logować zdarzenia Windows, które następnie przegląda się w formie graficznej w GPUView. Logowanie odpala się w konsoli wpisując "log.cmd". Na filmiku odpaliłem logowanie tylko poglądowo, bez uruchomionej w tle aplikacji 3D. Generalnie aby coś analizować musi być odpalona jakaś gra. Można to zrobić tak, że minimalizujemy aplikacje 3D, odpalamy logowanie w oknie konsoli, przywracamy okno aplikacji 3D, logujemy kilka sekund działania (pliki z logami osiągają monstrualne rozmiary także polecam logowanie tylko kilka sekund w wybranym miejscu), następnie znowu minimalizujemy aplikacje 3D, wpisujemy ponownie log.cmd co kończy logowanie i tworzy plik Merged, który nas interesuje. Podczas pierwszej próby logowania zdarzeń wyskoczył mi błąd 766, nie wiem czy ma to związek z moim komputerem (2 procesory pracujące w trybie NUMA), czy jest to generalny problem tego skryptu. W filmiku jest pokazane jak się uporać z tym problemem. 3) Otwieranie pliku Merged w GPUView do analizy Udanej analizy! (:
  12. http://www.3dmark.com/3dm/13236377 Niestety tylko Graphics Score, ponieważ test CPU w Time Spy wymaga SSSE3, więc działa tylko na prockach AMD nowszych niż Phenom. ;P
  13. Fakt, nie jest to demko na miarę Nature z 3DM01 lub Mother Nature z 3DM03 ale mamy w końcu benchmark DX12 z bardziej zaawansowaną grafiką niż API overhead test, który co ciekawe obsługuje DX 12 feature level 11_0 aby zapewnić jak największą kompatybilność z aktualnie dostępnym sprzętem. Złożoność scen wzrosła 3x jeżeli chodzi o geometrie względem Firestrike, także postęp jest. Z mniej ciekawych odkryć benchmark wywala mi się podczas ładowania testu CPU. [: Pascale z tego co widziałem dostają ok 7% przyrostu z włączonym Async. Na AMD jest to ok 12%. Maxwell niestety odnotowuje tylko spadki.
  14. Futuremark właśnie udostępnił do pobrania nowy test "Time Spy" wykorzystujący najnowsze niskopoziomowe API DX12 Microsoftu. W przeciwieństwie do trochę już leciwego testu Firestrike nowy benchmark potrafi wykorzystać asynchroniczne obliczenia GPU, rendering odbywa się z wykorzystaniem wielu wątków oraz istnieje możliwość łączenia różnych kart w trybie "SLIFire" dzięki obsłudze technologii Explicit Multiadapter. Historycznie pojawienie się nowego 3D Marka zawsze symbolizowało zmierzch starej epoki oraz nadejście nowej. Patrząc po ilości tytułów wykorzystujących niskopoziomowe API wydaje się, że tym razem Futuremark lekko zaspał, choć z drugiej strony ze względu na rewolucyjność nowych API zrzucających dużo więcej pracy na programistów ale jednocześnie oddających w ich ręce pełną kontrolę, decyzja o zwlekaniu mogła być słuszna, ponieważ deweloperzy dopiero zapoznawali się z nową technologią i wcześniej nie wiadomo było, które funkcjonalności nowego API staną się kluczowe dla twórców gier (pierwsze pokaz działającego benchmarka odbył się ponad pół roku temu, co się działo przez ten czas?). Aktualnie na rynku są już dostępne tytuły, w których zastosowanie nowych niskopoziomowych API można uznać uczciwie za dojrzałe (Ashes of Singularity oraz DooM). Pozostaje jednak pytanie, czy pojawienie się nowego 3D Marka nie zwiastuje rychłego wysypu tytułów obsługujących nowe, niskopoziomowe interfejsy programistyczne? Pierwsze testy pokazują przewagę rozwiązań AMD nad rozwiązaniami Nvidii. RX480 z ponad 15% przewagą wygrywa z GTX970. Czy nowy 3D Mark obiektywnie ocenia wydajność sprzętu pod kątem nadchodzących tytułów i dobre wyniki AMD są opóźnioną wypłatą, za wkład tej firmy w rozwój niskopoziomowych API? A może jest to tylko nic nie znaczące demko technologiczne, będące zbiorem funkcji, które znalazły się w worku podpisanym DX12, nie mające jednak pokrycia z tym co pokażą deweloperzy w nadchodzących grach? ( )
  15. udam_u

    Czy jest sens czekać ?

    Teraz najbardziej się opłaca kupić grafikę do 1000zl i przeczekać na niej do premiery ukladow 14/16nm.
  16. Kupuj od razu Win 10. Microsoft dlatego oferuje darmowy update do 10, bo to bardziej mu się opłaca niż latanie 3 różnych systemów. Z problemami z Win 10 jest tak jak z problemami z Win 7, 8 - często są to pojedyncze problemy userow, które później rosną do rangi olbrzymich problemów na forach. Lepsza czysta instalacja Win10 niż update z 7 lub 8. Te ostatnie będą systematycznie uśmiercane przez M$.(:
  17. Moim zdaniem do tych zastosowań zdecydowanie lepiej sprawdzi się platforma na X99 i I7 5820K. Tak jak mój poprzednik napisał do CS GO spokojnie GTX960 wystarczy a dodatkowe 4 wątki znacznie przyspiesza prace z progsami Adobe. Płyty X99 są znacznie droższe ale za kilka lat będziesz mogl zrobić upgrade do procka 8 lub nawet 10 rdzeniowego (jak już będą na rynku). Na S1150 nic już szybszego nie będzie, to martwa platforma. (:
  18. Przez nieuwagę to przeoczyłem. (; Jak wyniki sprawdzania, coś ciekawego się objawiło?
  19. Próbowałeś może wsadzić kartę do pomarańczowego złącza PCI-E?
  20. Opisane objawy pasują do następujących scenariuszy: 1) Płyta główna jest już zdegradowana poprzez czynniki takie jak temperatura, starzenie się komponentów elektronicznych (wysychanie kondensatorów itd). Zimny start komputera to najcięższy moment ponieważ w odpowiednim krótkim czasie zasilone muszą zostać wszystkie komponenty (napięcia muszą osiągnąć tzw. stan ustalony). 2) Przy resecie ustawień Biosu wszystko startuje na defaultowych "bezpiecznych ustawieniach". Phenomy komunikują się z grafiką poprzez mostek północny. Jeżeli masz podkręcony komputer, to też może objawiać się w taki sposób jak opisałeś, starzenie się komponentów może tylko zintensyfikować objawy. Jeżeli cokolwiek podkręcałeś to przywróć ustawienia standardowe - zwróć uwagę np. na taki parametr w BIOS'ie jak Northbridge Frequency, PCI-E frequency, jeżeli masz takie opcje to daj je na auto/default. 3) Uszkodzona karta graficzna, zasilacz się zestarzał (patrz punkt 1). Jedyna pewna metoda to zgadać się z kumplem z podobnymi bebechami i przekładać je po kolei aż do wystąpienia problemu - oczywiście zdaje sobie sprawę, że to mega kłopotliwe i w 95% przypadków odpada...
  21. udam_u

    Komputer do 8 tysiecy

    Moim zdaniem zestaw z Komputronika lepiej się nada do tych zastosowań. Fury X czy 980Ti to sprzęt dla zapalonych graczy. Tutaj o wiele większa korzyść będzie z wydajnego systemu dyskowego oraz szybkiego wielowątkowego CPU (w zestawie z Komputronika masz 6 rdzeni i 12 wątków), które z dobrym coolerem da się dodatkowo ładnie podkręcić (cooler dałbym wydajniejszy niż ten zaproponowany - Be Quiet Dark Rock Pro 3 lub jakąś Noctue ale z wentylami 120 lub 140mm). Odnośnie monitora to polecam wybrać coś z rozwiązań dedykowanych dla grafików, czyli coś z tego: https://www.nec-display-solutions.com/p/pl/pl/products/choice.xhtml?cat=Colour lub jakieś EIZO. Do tego kalibrator kolorów by się przydał np. Spyder 5 Pro. Dzięki temu będzie bardzo duża szansa, że to co stworzysz na kompie będzie wyglądało po wydruku tak jak chciałeś. (;
  22. udam_u

    Komputer do 8 tysiecy

    Musisz dokładniej sprecyzować co potrzebujesz.To komp do amatorskich eksperymentów,pracy, czy ukryty komp gracza? Masz monitor? Jaka rozdzialka cie interesuje? Gry od święta, czy codziennie i czy musisz mieć max detale? Im więcej napiszesz tym lepiej. Inaczej nikomu nie będzie się chciało fatygować. (;
  23. A na pozostałych 2 kompach występują te same objawy z Fury X?
  24. W Polsce mało kto ma Fury X. U mnie opisany problem nigdy nie wystąpił ale u innych użytkowników tak. Poniżej link do tematu na forum AMD: https://community.amd.com/thread/188642
  25. Zajmujesz się ISA GCN z ciekawości, czy jest to część jakiegoś projektu? (:
×
×
  • Dodaj nową pozycję...