Skocz do zawartości
Hysiek

Gigabyte GeForce RTX 4080 SUPER Aero Niewielka liczba klatek/s w grach

Rekomendowane odpowiedzi

Witam, kupiłem tę kartę (Gigabyte GeForce RTX 4080 SUPER Aero) i sądziłem, że pogram w Cyberpunka na ultra, jednak generuje mi ona na rozdziałce 1440p około 25-35 klatek/s. Program Geforce Experience wogóle mi zaniża rekomendowaną jakość grafiki we wszystkich grach na low/średnie. Pytanie - co jest nie tak? Upgrade komputera polegał na nowym zasilaczu, oraz karcie graficznej. Czy możliwe, że pozostałe komponenty już nie domagają? Kupione były w zasadzie nie tak dawno. Oto one:

-Monitor Asus PG279Q
-Procesor Intel Core i7-9700K, 3.6 GHz, 12 MB, BOX (BX80684I79700K)
-Płyta główna Gigabyte Z390 AORUS PRO
-Pamięć HyperX Predator RGB, DDR4, 16 GB, 3200MHz, CL16 (HX432C16PB3AK2/16 )
-Zasilacz be quiet! Pure Power 12 M 1000W (BN345)
-Karta graficzna Gigabyte GeForce RTX 4080 SUPER Aero OC 16GB GDDR6X (GV-N408SAERO OC-16GD)

Nie jestem pewien, czy PCIe w mojej płycie nie będzie już przestarzałe, co powoduje zaniżenie osiągów karty?

Może po prostu chodzi o jakieś ustawienia?

Moja stara karta to Asus GeForce GTX1080 Advanced 8GB GDDR5X (256-Bit) DVI, 2xHDMI, 2xDP, BOX (STRIX-GTX1080-A8G-GAMING)

Ogólnie widzę poprawę względem jakości, ale nie jest to to, czego oczekiwałem.

Pozdrawiam

Edytowane przez Hysiek

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pozbądź się GE i zainstaluj nowe sterowniki do grafiki używając DDU.

Na tym procesorze karta będzie ograniczona, ale w 4K powinieneś mieć spokojnie 60FPS+ w 4K.

Sprawdź też w OSD Afterburnera, jakie jest użycie CPU i GPU w czasie rzeczywistym.

No i jak wyżej zasugerowano wykonaj test w benchmarku i porównaj wyniki do innych platform z 4080.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wygląda to tak. 

Zaraz też spróbuję ogarnąć te stery z DDU.

image.thumb.png.405b0dcf4861b05456b20c4bd4df182a.pngWimage.thumb.png.8939430115f9d4883b7876ee2037754a.png

Chyba znalazłęm rozwiązanie. Ustawiłem grafikę w Cyberpunku na Ultra, ale nie włączyło mi to DLSS, dopiero kiedy ręcznie to włączyłem, otrzymałem około 80 fps przy max ustawieniach z Ray Tracingiem. Geforce Expereience do śmietnika, źle optymalizuje gieki. 

Edytowane przez Hysiek

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Do tej pory nie, ale właśnie ustawiłem z pomocą youtuba XPM na profil 1 - 3200

Także delikatnie podkręciłem procesor - także z pomocą yt. Jestem niestety kiepski w te klocki 🙂

Tym razem mam takie wyniki:

image.thumb.png.bb8cb9b7e1dd139b6eb8a7e60c32d2ba.pngimage.thumb.png.7564079b9443592cbe0d4a1bbba0696b.png

Edytowane przez Hysiek

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Coś mało... zdecydowanie za niski wynik na GPU.
Nie chcę Cię denerwować, bo mam RTX 4070 Ti, ale tutejsze trolle twiedzą, że mój 11-leni Xeon E5-1680 v2 jest do bani.

image.thumb.png.1d6cb1e4ebd93858b018e91d04a0cf41.png

W AIDA64 powinieneś mieć tyle:
image.png.e151997c062c41e30aa5511c1e3a0987.png

U mnie wychodzi tyle:
image.png.5836095698351485ad75029216f3957d.png

Czyli w AIDA64 i7-9700K jest wolniejszy o 23%, natomiast w CPU Score w 3DMark to 7086 vs 9472 co daje 25% mniej (więc numery się zgadzą).
Mój system może ratować Quad DDR3-2400 z transferami ok. 70GB/s, u Ciebie na Dual DDR4-3200 będzie ok. 43GB/s.

Nie mam pojęcia dlaczego Twoja karta w teście GPU uzyskuje tylko 22819 punktów, 4080 SUPER powinien mieć 28500 (gdzieś znika 20% wydajności).
Jeżeli chodzi o mnie to mam 24578 na RTX 4070 Ti (średnia dla tej karty to 22800), a taki 4070 Ti SUPER uzyskuje średnio 24300.

Sprawdź profile zasilania w Windows (ustaw najwydajniejszy), sprawdziłbym też temperatury podczas obciążenia GPU.
Sprawdziłbym też Power Limit na karcie w Afterburner. W ostateczności można przeinstalować system i zresetować BIOS,

Jak już się uporasz z wydajnością GPU, to wymień sobie i7-9700K na i9-9900K (będą 2-wątki dla każdego rdzenia, obecnie masz 8-rdzeni i 8-wątków).
Stockowy i9-9900K wyprzedzi (+3%) mojego podkręconego Xeon-a i uzyskasz ok. 100K w AIDA64 CPU Queen i ok. 9750 punktówe w 3DMark CPU score - i można go jeszcze podkręcić.

Edytowane przez First Ever
  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ustawiłem zasilanie ze zrównoważonego na wydajny.
Power limit ustawiłem na 125%, oraz monitorowałem temp podczas testu, to wychodziło blisko 60'c-65'c 

Wynik wyszedł w zasadzie podobny: 

image.thumb.png.efef8767727d3fe38523e64351bc4163.png

image.png.693be7ddbbb6ce01dd8fa5349629fc87.png

Nie jest to wina złącza PCIe? Karta podobno obsługuje port 4.0, a z tego co patrzyłem na mojej płycie jest 3.0 i jest to podobno 2x wolniejsze złącze mimo tego, że jest kompatybilne.

Edytowane przez Hysiek

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

7 godzin temu, Hysiek napisał:

Nie jest to wina złącza PCIe? Karta podobno obsługuje port 4.0, a z tego co patrzyłem na mojej płycie jest 3.0 i jest to podobno 2x wolniejsze złącze mimo tego, że jest kompatybilne.

Musiałbyś mieć ustawione PCI-e 1.0, to może miałbyś taki spadek. U mnie jest PCI-e 3.0 i może tracę 1-3%, ale jak widzisz i tak mam lepsze wyniki niż inni.

Edytowane przez First Ever

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Uruchom

7 godzin temu, Hysiek napisał:

Nie jest to wina złącza PCIe? Karta podobno obsługuje port 4.0, a z tego co patrzyłem na mojej płycie jest 3.0 i jest to podobno 2x wolniejsze złącze mimo tego, że jest kompatybilne.

Uruchom GPU-Z, kliknij na znak zapytania i uruchom test i pokaż pierwszą zakładkę to się zobaczy, w jakim trybie pracuje karta i płyta.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

  Co bym zrobił:

  1. Sprawdział ustawienia PCI-e w GPU-Z - jak napisał leven.
  2. Zresetuj BIOS, bo po wymianie karty graficznej może ustawić dziwne rzeczy.
  3. Nie wiem jaki soft uruchamiasz w tle, zbyt wiele narzędzi do kontroli RGB / Fan może powodować konflikt i spowalniać komputer, albo jakieś idiotyczne widgety.
  4. Nawet brak/wyłączony ReBAR jak u mnie (zmodyfikuje sobie BIOS w przyszłości by go aktywować), nie wpływa na wydajność na kartach GeForce.
  5. Teoretycznie gdyby zasilacz nie wydalał, to miałbyś resety podczas obciążenia lub BSOD.
  6. Ostateczność to reinstalacja systemu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

8 godzin temu, Hysiek napisał(a):

Ustawiłem zasilanie ze zrównoważonego na wydajny.
Power limit ustawiłem na 125%, oraz monitorowałem temp podczas testu, to wychodziło blisko 60'c-65'c 

Wynik wyszedł w zasadzie podobny: 

image.thumb.png.efef8767727d3fe38523e64351bc4163.png

image.png.693be7ddbbb6ce01dd8fa5349629fc87.png

Nie jest to wina złącza PCIe? Karta podobno obsługuje port 4.0, a z tego co patrzyłem na mojej płycie jest 3.0 i jest to podobno 2x wolniejsze złącze mimo tego, że jest kompatybilne.

A ile przy np temperaturze GPU 65 stopni wyniósł hotspot i temp pamięci? Miałem taki przypadek, że GPU miało 65 stopni, a hotspot dobijał do 100-105 I to powodowało dziwny spadek wydajności GPU, także warto na to też spojrzeć. Tyle ode mnie na podstawie własnych doświadczeń.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

36 minut temu, gregory_portman napisał:

Miałem taki przypadek, że GPU miało 65 stopni, a hotspot dobijał do 100-105 I to powodowało dziwny spadek wydajności GPU, także warto na to też spojrzeć. Tyle ode mnie na podstawie własnych doświadczeń.

Ostatnio miałem hotspot 110'C i nie wpływało to na wydajność karty - niepotrzebnie zwiększałem napięcie na GPU, bo nie wpływało to na lepsze OC lub stabilność.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Temperatury moim zdaniem ok. Co do BIOSu wyjąłem baterię zaraz po włożeniu nowej karty i zresetowałem go. W tle staram się ograniczać jakieś zbędne programy, także raczej to nie będzie to. Chociaż system stoi już ładnych kilka lat (gdzieś od 2019), ale bez problemów wszystko chodzi do tej pory, to nie był reinstalowany. Fanem widgetów też nie jestem 😉 Zasilacz mam nowiutki, pachnący fabryką, specjalnie kupiony pod kartę. Ciężki temat. Jeśli nic nie wymyślimy, to chyba zdecyduję się na kupno nowej płyty z nowszym PCIe (chyba 5.0) i zmienię przy okazji procesor. No i wiadomo przy tej okazji reinstal systemu.

 

UP: właśnie, a nie jest problemem, że procesor jest za słaby do tej karty i nie współgra z nią, stąd karta nie osiąga swoich pełnych możliwości? 

 

image.thumb.png.f5e6c254d215e557af6b571d0fdbb545.png

image.png

Edytowane przez Hysiek

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

RTX 4080 SUPER to niezła karta i rzeczywiście ten procek może już być za słaby...

Ale na logikę, jeżeli GPU działa na 80% i zamontowałbyś tam i9-9900K (za 800-900 zł), który bez OC dałby 30% więcej mocy całemu systemowi +OC @ 5.2GHz dostajesz kolejne 4.5% (+34.5%). Wtedy wszystko zależy jaki masz monitor, dla takiego z max 100-120Hz nie ma sensu wymieniać całego systemu, bo na lepszym CPU będzie tylko wyższy maksymalny FPS (którego nie zobaczysz).

Chyba sprzedam swojego RTX 4070 Ti i kupię właśnie tego 4080 SUPER lub 4090... myślę, że mój "trup" jeszcze da radę...
Problem polega tylko na tym, że będę musiał zmodyfikować obudowę (na długość) i dokupić risery PCI-e, bo mam obecnie sporo kart rozszerzeń USB 3.1 10GB, WiFi 7, PCIe->M.2, a 4080/4090 są też szersze.

Edytowane przez First Ever
  • Like 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Podbijanie limitu mało daje w tych kartach , daj limit na 100% a GPU clock na +200 i zatwierdź ... 

Troszkę Ci CPU dusi jednak kartę , nawet 7800X3D nie jest za mocny do niej ..

Tu test na zegarach bazowych 100% power limit na moim setupie :

080afd82c341a4famed.png

P.S. Widzę , że ram masz puszczony na 2400 CL17 , CPUZ przy tescie OCCT !!

Tu wynik z power limit nadal na 100% tylko GPU core + 202 :

65cd5d32e7c46c4dmed.png

Edytowane przez Gerg7

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Moim zdaniem to jednak kwestia procesora, w kilku miejscach chrupnie a że 3dmark wyniki podaję  na bazie średniego fps to wychodzi co wychodzi.

Mój wynik 4080s(stock) z 5600x też szału nie robi, ale zdaje sobie sprawę że proc do wymianki.

 

Screenshot_20240224_044540_Camera.thumb.jpg.6912a2628067df6eaa26ee776cfb2349.jpg

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No to wszystko jasne. Póki co polatam na tym sprzęcie, co mam, ale w wolnym czasie wymienię płytę i procek 🙂 Teraz i tak po tej przesiadce ze starej karty, to jest boost, że muszę się fotela trzymać, takie fpsy mam i na ultra detalach 🙂 Pozdrawiam towarzystwo i dziękuję za pomoc i zaangażowanie!

1 godzinę temu, Gerg7 napisał(a):

P.S. Widzę , że ram masz puszczony na 2400 CL17 , CPUZ przy tescie OCCT !!

Co to oznacza? Nie bardzo rozumiem 🙂 Ram ustawiłem w biosie na 3200, tzn wybrałem taki profil w XMP

EDIT: faktycznie, wszedłem w BIOS i miałem ponownie stare ustawienie 2400. 

Edytowane przez Hysiek

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

14 minut temu, Hysiek napisał(a):

 Teraz i tak po tej przesiadce ze starej karty, to jest boost, że muszę się fotela trzymać, takie fpsy mam i na ultra detalach

 

W dniu 6.03.2024 o 18:07, Hysiek napisał(a):

Cyberpunka na ultra, jednak generuje mi ona na rozdziałce 1440p około 25-35 klatek/s.

wiec jedno musi być nieprawdą

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

przecież pisał , że bez DLSS 😛

a Cyberpunk faktycznie zarzyna karty bez DLSS i FG :

u mnie, mam średnio, w teście z RT i PT w 1440p na maxa all 36 klatek ( 30 do 44 ) :

bfdcce5969633e8amed.png

ale samo włączenie DLSS na Jakość ( bez FG ) już dokładnie podwaja średnią liczbę klatek do 72 ( 65 do 82 )"

1a0d98b74f84c420med.png

 

 

Edytowane przez Gerg7

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pamięci RAM trzeba jak najwyżej ustawić w biosie, bo w Intelu to ma duży wpływ na wydajność, szczególnie przy słabych procesorach.

Ja u siebie też wyżyłowałem RAM do 3866mhz cl16 i widzę w np. W3 w rozdzielczości procesorowej 1080p wzrost FPS z 179FPS do 218FPS w najniższych ustawieniach graficznych.

Nie uwierzyłbym, gdybym tego na swoim blaszaku nie sprawdził.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

Ładowanie


×
×
  • Dodaj nową pozycję...