Raidenorius Opublikowano 17 Listopada 2022 Zgłoś Opublikowano 17 Listopada 2022 (edytowane) Decyzję o wymianie GPU odwlekałem bardzo długo, ale miałem ku temu powody: - mój mocno wysłużony GTX 980ti dalej dawał radę w 1080p (trochę więcej o tym poniżej, ale ogólnie tu i tam byłem gotowy na kompromisy w ustawieniach); - ceny GPU uwarunkowane masą czynników (cena dolara, krypto, pamięci itd.). Mój domowy PC nie służy mi do pracy z obróbką video (czasami się zdarzy) czy czymkolwiek bardziej wymagającym. Jego profili to: - 50% Web + multimedia; - 30% gry 1080p; - 10% obróbka video i zdjęć (Davinci Resolve/Capture One); - 10% Gry VR (Oculus Quest 2 w Air Link). Wspomniana karta GTX 980ti to topowe wydanie, co ma spore znaczenie, gdyż te karty bardzo dobrze się kręciły, a fabryczny ZOTAC GTX 980 Ti AMP! Extreme Edition nie miał sobie równych po wyjściu z fabryki – zegar boost 1430mhz. Jak to się ma do innych kart. VR Mark przyszedł tu z pomocą i tak ot, ten fabryczny Zotac z zegarem 1410mhz (zegar efektywny - osiąganym ciągle) jest w: - Top 7% w GTX 980ti;- - Top 17% w GTX 1070ti; W suchych liczbach dotyczących całkowitej wydajności GPU (obliczenia dla zegara efektywnego 1410mhz), wygląda to tak (same wyniki testów w porównaniu bezpośrednim z RTX 3060ti niżej): FP32 (float): 7,94 TFLOPS Pixel Rate: 135,3 GPixel/s Texture Rate: 248,2 GTexel/s To wszystko powyżej przy maksymalnym poborze mocy: 375W Podjąłem jednak decyzję o wymianie GPU. Jasne było dla mnie, że z uwagi na okazjonalną pracę w domu z obróbka Video oraz na grę w VR nie zmienię karty na AMD, gdyż te się w tych zastosowaniach sprawdzają dużo słabiej. Jasne było też, że z uwagi na rozdzielczość i Hz moich monitorów i VR (do 120hz) nie ma co się pchać w topową kartę, tym bardziej biorąc pod uwagę profili używania PC. Do tego dochodził CPU i potencjalny bottleneck (Ryzen 5 3600 + b die). Pod uwagę brałem więc 3 karty. RTX 3060, RTX 3060ti oraz RTX 3070. Decydowały ceny, cisza, względny rozsądek oraz wydajność energetyczna. Względem tego ostatniego wszystkie karty skalują się bardzo dobrze (bardzo podobny stosunek FPS per W), dlatego wybrałem „złoty środek” i dopłaciłem za ciszę. Tak oto wylądował u mnie ASUS TUF RTX 3060 Ti V2 GAMING OC LHR (ahhh te krótkie nazwy) GPU przede wszystkim chłodne, ciche, z 8 fazową sekcją po 50W DrMos (ale tylko jednym złączem zasilania, co ogranicza potencjał OC) i limitem mocy bios na poziome 216W (rzeczywisty limit 225W). Trochę dziwna decyzja ASUSa o tym wszystkim, gdyż chłodzenie i sekcja zasilania ma ogromny zapas mocy (do 400W), dual bios, ale rozumiem, że TUF to nie topowa seria i Strix jakoś musi się sprzedawać. Co ciekawe, właśnie wersja TUF jest najcichszą i najchłodniejszą kartą spośród wszystkich wydań RTX 3060ti i to dowolnej firmy (zarówno w testach ogólnych, jak i normalizowanych dla dźwięku – 40db). Jak ta karta wygląda w suchych liczbach? We wszystkich testach (bios performance), przy ustawieniach z pudła (default), karta osiągało podobny zegar efektywny – 1850mhz i dla takiego wykonam obliczenia mocy. FP32 (float): 17,99 TFLOPS Pixel Rate: 148 GPixel/s Texture Rate: 281,2 GTexel/s Z doświadczenia wiem, że fizyki jeszcze nikt nie oszukał i te liczby powyżej pokazują faktyczną moc GPU. W porównaniu do Zotac GTX 980ti przyrost jest bardzo znaczący w FP32 (TFLOPS), ale wbrew powszechnej opinii, wszystkie powyższe mają ogromne znaczenie, a Texture Rate oraz Pixel Rate nie przyrosły za bardzo. Kierując się wiedzą, doświadczeniem oraz tabelkami Tech Power Up (które pozwalają ocenić przyrost związany z architekturą), wiem, że na podstawie powyższych liczb mogę się spodziewać 70-80% przyrostu wydajności (bez uwzględnienia poboru). Dla bazowych wydań founders RTX 3060ti zyskuje w stosunku do GTX 980ti 95%, ale, tak jak wspominałem, GTX980ti kręciły się bardzo dobrze, a tu porównuję topowego GTX z RTX na producenckim kagańcu i, ogólnym, mniejszym potencjałem OC. Przy takich opisach kart często przypomina mi się sprawa Radeona VII, który niczym rodzina CPU od AMD – FX, na papierze, w liczbach, wyglądał super, ale przez architekturę i dzieloną pamięć dla CU, był nieco gorszy od RX 5700XT (ahhh to AMD i ich klastry z dzieleniem rdzeni, pamięci itd.). Ok, czas kończyć tę teorię i liczyć na to, że Nvidia nie próbowała oszukać fizyki i faktycznie zobaczę te przyrosty na poziomie 70-80%, a przy wykorzystaniu rdzeni tensor dużo wyższe. Platforma testowa: - Ryzen 5 3600@ 4200mhz + True Spirit 140 Power; - 2x8gb 3200mhz cl14 opóźnienia ręczne (b-die); - Asus TUF x570; - Seasonic Prime Platinium 650W. Ważne – zdaje sobie sprawę z potencjalnego bottlenecku CPU, dlatego w testach szczególną uwagę zwracałem na % użycia karty i jeżeli wąskie gardło powstało, to zostanie to zaznaczone oraz przeanalizowane. Dla uspokojenia dodam, że troszkę tych CPU przetestowałem, trochę testów już pooglądałem i ten Ryzen, z tak podkręconym ramem, jest prawie na poziomie R5 5600 ze zwykłym ramem w trybie DOCP. Zaczynam od benchamrku Superposition i testu VR Future w rozdzielczości pod HTC Vive pro. GTX 980ti: 2566 pkt., pobór karty 295W (0,098 klatki na dżul); RTX 3060ti: 4364 pkt., pobór karty 200W (0,245 klatki na dżul); Więc RTX ma 170% wydajności GTX. Bez większych zaskoczeń. Efektywność energetyczna: RTX ma 250% wydajności GTX na dżul. PS Wynik z innych bechmarków w Superposition (np.1080p extreme) dają niemalże identyczne rezultaty. Lecimy dalej z przygotowanymi testami (już bez wydajności energetycznej, do której później jeszcze wrócę, po to, by teraz skupić się na czystej mocy): VR Mark Blue Room a wykresie widoczne wykorzystanie GPU dla RTX 3060ti – czerwona linia w przedziale 98-100%. GTX 980ti: 2016 pkt. RTX 3060ti: 3458 pkt. Więc RTX ma 172% wydajności GTX. Nadmienię tu, że w VR Marku przeprowadziłem wszystkie testy, lecz Cyan room z jakiegoś powodu dla RTX 3060ti był ograniczony do 60fps… (pomimo sprawdzenia wszystkich ustawień) a przy Orange Room mamy spory bottleneck od strony CPU i wykorzystanie GPU na poziomie 60-70% dla RTX 3060ti. Czas na przykłady bardziej życiowe, ale dalej weryfikowalne. DX12 oraz Vulkan Shadow of the Tomb Raider, wbudowany bench 1080p, najwyższe preset (bez RT, bez DLSS), DX12 Z uwagi na zmniejszenie wyniku ogólnego przez CPU, porównujemy tu render GPU (tabelka). GTX 980ti: 83fps średni; 67fps w 95% odciętych; RTX 3060ti: 154fps średni; 122fps w 95% odciętych; Więc RTX ma 185%(dla średniego fps) i 182% (dla odciętego fps) wydajności GTX. Co do samego bottlenecku od strony CPU, to test w SotTR opisywałem już tu. W tym miejscu miał się pojawić jeszcze jeden bardzo ważny test, z Ashes of the Singularity Escalation i API Vulkan, który często wykorzystywałem do porównań, ale, ku mojemu zdziwieniu, gra utraciła wsparcie API Vulkan… Zadowoliłem się więc porównaniem z DX12, chociaż zakładałem, że tu wyniki nie będą bardzo odmiennego od tego, co pokazał SotTR. Ashes of the Singularity Escalation GPU bench, 1080p, Crazy preset, DX12 GTX 980ti: 47,3 FPS (99% wykorzystania GPU); RTX 3060ti: 77,3 FPS (91-98% wykorzystania GPU) RTX ma 163% wydajności GTX. Delikatne wąskie gardło od strony CPU (91-98% wykorzystania GPU) i bez niego, pewnie byłoby to te 170%. RDR 2, wbudowany bench, 1080p, Ultra - suwak na max w prawo, Vulkan GTX 980ti: 42,25fps średni; RTX 3060ti: 79,04fps średni; Więc RTX ma 187% wydajności GTX. W teście nie było mowy o ograniczeniu od strony CPU – widać to na wykresie z msi (obie karty w przedziale 95-99%). Gears 5 wbudowany benchmark 1200p, Ultra preset, asynch off; GTX 980ti: 64,9fps średni; 52,3fps w 95% odciętych; RTX 3060ti: 111,3fps średni; 90,7fps w 95% odciętych; RTX ma 171%(dla średniego fps) i 173% (dla odciętego fps) wydajności GTX. Procesor przy RTX 3060ti musiał się już nieźle napocić, ale mapowanie czasów opóźnienia, które benchmark Gears 5 generuje, jasno pokazuje, że ograniczenia od strony CPU było bardzo minimalne (2,52% klatek CPU z większym opóźnieniem niż klatek GPU). DX 9, DX 10, DX11 Ashes of the Singularity Escalation GPU bench, 1080p, Crazy preset, DX11 GTX 980ti: 48,7fps średni; RTX 3060ti: 69,9fps średni; Wynik RTX stanowi 143% wyniku GTX. Niestety, w przypadku RTX mówimy tu o sporym ograniczeniu ze strony CPU. O ile w przypadku AotS i DX12 wykorzystanie GPU było na poziomie 91-98%, tak przy DX 11 jest to 70-99%. Dlatego ten wynik bardziej jako ciekawostka, przedstawiająca wykorzystanie CPU w DX11 i DX12, a nie faktyczne przedstawienie mocy RTX 3060ti. PS Vulkan jest w tym lepszy od DX12 i szkoda, że go usunięto z AotS. Metro: Last Light Redux benchmark exe., 1080p, Ultra, SSAA DX11 (oryginalnie DX9/DX10) GTX 980ti: 77,32fps średni; RTX 3060ti: 115,63fps średni; RTX ma 150% wydajności GTX. Oba GPU podczas testu był dociążone w 98-99%. W ramach ciekawostki gra z DX10 – Lost Planet EC (wszystko na maxa) GTX 980ti: 285,6fps średni z testu gpu (Snow); RTX 3060ti: 429,6fps średni z testu gpu (Snow); RTX ma 150% wydajności GTX. Oba GPU podczas testu był dociążone w 98-99%. Zaskoczeniem dla mnie był drugi etap benchmarku z Lost Planet – „Cave”, który ma obciążać CPU. GTX miał w nim 95-99% wykorzystania i zebrał 338,7fps, RTX miał 50-70% wykorzystania i zebrał 330,4fps. Nieco zaskakująca sytuacja, chociaż sam CPU miał też o te kilka % lepszy wynik w SotTR, gdy pracował z GTX. Dlaczego brak testów bezpośrednio z gier lub z VR. Te są obarczone sporym błędem, a ich wyników nie można odnieść do własnych ustawień. Do tego co powyżej, każdy może porównać swoją konfigurację, i nie ma błędów wykonawczych. Co do VR, to testy bez wykorzystania FCAT VR uważam za małowartościowe, więc stąd 2 benche pod VR. Ok., czas na moje zastosowanie „profesjonalne”; chociaż w domu. Blackmagic RAW Speed Test BRAW 3:1 itd. to stosunek bitratu obrabianego materiału do oryginału. Im bliższy 1:1 (bezstratny bitrate)tym materiał cięższy w obróbce dla GPU. Natomiast jest to kwestia wyłącznie bitrate – użytego kodeku, całości efektów oraz wybranej jakości (nie uwzględnia w 100% ciężaru użytych efektów czy maszynowego uczenia się, a jedynie ich wyjściowy wpływ). Co obserwujemy? W BRAW 12:1 HQ: - GTX 980ti: 1305 fps; - RTX 3060ti 1904 FPS. Im bliżej BRAW 3:1, tym karty są do siebie bliższe, a w 3:1 GTX980ti ma nawet lekką przewagę. Jest to norma jeżeli chodzi o topowe GPU, które posiadają przewagę jeżeli chodzi o liczby jednostek obliczeniowych, natomiast wynik BRAW 12:1 HQ jest dość wymierny dla normalnego renderu, bez specjalnych efektów, Neural Engine itd. DaVinci Resolve render 4k, bez efektów, x265, kodek NV. - GTX 980ti: 50fps przy 141W poboru samego GPU (0,35 klatki na dżul) - RTX 3060ti 70fps przy 94W poboru samego GPU (0,74 klatki na dżul) Wynik RTX stanowi 140% wyniku GTX oraz RTX ma 211% wydajności energetycznej GTX w tym teście. Co dalej? Czas na rdzenie tensor DaVinci Resolve Neural Engine test Speed Warp x4 test (bazowo full HD 30fps, wyjściowo full HD 120fps), x265, kodek NV, brak innych efektów (jedynie Optical Flow + Speed Warp do kreowania nowych klatek) - GTX 980ti: 3,4fps przy 325W GPU średnio (0,01 klatki na dżul); - RTX 3060ti 13,6fps przy 198W GPU średnio (0,068 klatki na dżul); RTX miał 400% czystej wydajności GTXa oraz 680% wydajności energetycznej. Rozdzielczość AI x4 (bazowo full HD, algorytm Neural Engine x4), x265, kodek NV, brak innych efektów - GTX 980ti: 4fps przy 330W GPU średnio (0,012 klatki na dżul); - RTX 3060ti 12,4fps przy 199W GPU średnio (0,062 klatki na dżul); RTX miał 310% czystej wydajności GTXa oraz 517% wydajności energetycznej. Davinci AI deinteralce (bazowo 1080i; algorytm Neural Engine deinteralce do 1080p) x265, kodek NV, brak innych efektów - GTX 980ti: 15,5fps przy 255W GPU średnio (0,061 klatki na dżul); - RTX 3060ti 38,5fps przy 160W GPU średnio (0,241 klatki na dżul); RTX miał 248% czystej wydajności GTXa oraz 395% wydajności energetycznej. Rozdzielczość AI x2 + Speed Warp x2 (bazowo 720x480, 30fps; wyjściowo 1440x960, 60fps) - GTX 980ti: 4,6fps przy 330W GPU średnio (0,014 klatki na dżul); - RTX 3060ti 16fps przy 199W GPU średnio (0,08 klatki na dżul); RTX miał 348% czystej wydajności GTXa oraz 571% wydajności energetycznej. Kolejny test AI – rdzeni tensor Topaz AI Video Materiał 720x480x30fps, AI upscaling x2; AI fps x2 = 1440x960x60fps Model AI: Artemis; Kodek: NV, x265 Wyniki (więcej=lepiej): GTX 980ti: 3,57fps (0,28spf) przy 280W poboru samego GPU (0,0128 klatki na dżul); RTX 3060ti: 10fps (0,10spf) przy 115W poboru samego GPU (0,0870 klatki na dżul). Więc RTX ma ok. 280% wydajności GTX, i wydajność energetyczną: RTX ma 680% wydajności energetycznej GTX. Efektywność energetyczna: Pobór platformy idle: - GTX 980ti: 75W (30W sama karta); -RTX 3060ti: 55W (10W sama karta). Pobór karty w wypalarce OCCT: - GTX 980ti: 360W -RTX 3060ti: 200W. Pobór karty w SotTR przy zablokowanych 60fps, 1080p, najwyższe preset, benchmark w grze: - GTX 980ti: 214W średnio (0,28 klatki na dżul); -RTX 3060ti: 62W średnio (0,97 klatki na dżul) RTX w SotTR miał 346% wydajności energetycznej GTX. Pobór karty w Gears 5 przy zablokowanych 60fps, 1080p, Ultra preset, benchmark w grze: - GTX 980ti: 242W średnio (0,25 klatki na dżul); -RTX 3060ti: 77W średnio (0,80 klatki na dżul) RTX w Gears 5 miał 320% wydajności energetycznej GTX. Podsumowanie Wydajność ASUS Tuf RTX 3060ti (1850mhz efektywny zegar) do Zotac GTX 980ti AMP Extreme (1410mhz): - o 71% (171% z GTX) lepsza w programach testowych (SuperPosition, VR Mark); - o 80% (180% z GTX) lepsza w grach opartych o współczesne API (DX12, Vulkan); - o 50% (150% z GTX) lepsza w grach opartych o starsze API (DX11, DX10) - o 42% (142% z GTX)lepsza w czystym renderingu; - o 217% (317%) lepsza przy obróbce wideo z wykorzystaniem AI (rdzeni tensor) Dodatkowo dochodzi mniej więcej dwukrotnie wyższa niż to co powyżej efektywność energetyczna. Co do warunków termalnych, to karta w żadnym teście nie przekroczyło 60 stopni (oczywiście, też dlatego, że zwiększała obroty), ale w kilku była lekko słyszalna. W głębsze testy temp./głośności się nie bawię, gdyż już kiedyś próbowałem i uważam, że takie tylko w constans – laboratorium. W domu to tylko strata czasu. Gdzieś tam jeszcze pewnie będę to lekko testował, przede wszystkim w Davincim, z nakładaniem różnych efektów, lataniem po materiale itd., ale to na spokojnie – teraz czas na RE2 w VR (trudno, że tylko mod) Czy jestem zadowolony z wymiany gpu? Na ten moment tak, a resztę pokaże czas, chociaż dalej mnie zastanawia dlaczego ASUS do wersji z tak dobrym chłodzeniem (rdzenia, sekcji i pamięci) dorzuca w cenie takie limity. PS Co do potencjalnego wąskiego gardła ze strony R5 3600. Tak, pewnie tu i tam się pojawi, ale: 1) Czy bez śledzenia programami w ogóle je zobaczę? 2) Mam w zanadrzu jeszcze drugi profil dla ramu, na 1,45V, który dodaje kolejne kilka % mocy CPU w grach – zawsze coś. Edytowane 18 Listopada 2022 przez Raidenorius 3 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...