Skocz do zawartości
Caleb

NVIDIA GeForce GTX 900 / Titan X (Maxwell) - Temat zbiorczy

Rekomendowane odpowiedzi

Witam serdecznie.  Moje dwa GTX - y 980 g1 gaming nie pracują tak jak powinny. Nie wiem czy cos je blokuje czy sa wadliwe, ale nie uzywają pelnej mocy kiedy potrzeba. GPU usage oscyluje miedzy 50 a 70 % w scenach kiedy potrzebne mi są FPSy. Zamieszcze tutaj link do video z CRYSIS 3 prezentujący zuzycie rdzeni ( 2 wartosc po Temperaturze),  oraz zuzycie CPU.

https://www.youtube....h?v=dFl2z_HxLnE

https://www.youtube.com/watch?v=9H4EGh2RKe8&feature=youtu.be battlefield 4

 

 

To samo dzieje sie w Dragons age inquisition oraz battlefieldzie 4. Far Cry 4 jako jedyny chodzi tak jak powinien. Sa sceny w ktorych karty pracuja przy 90% obciazenia i to bardzo stabilnie, ale wtedy kiedy potrzeba zeby tak pracowaly to nie chca. Oto pełna specyfikacja mojego komputera:

i7 4790k 4.00 ( stock).

GTX 980 SLI g1 gaming  ( karty byly kupowane w roznym czasie wiec moga sie roznic wersja BIOSU, w nvidi powiedziano mi ze to nie ma znaczenia)

2x  4 096 MB Kingston DDR3 @ 667 MHz

z97 gaming 5 MSI

EVGA 850 Supernova.

Windows 8.1 

27" SD390 Mega DCR Full HD LED Monitor - link http://www.samsung.c...n/LS27D390HS/EN

 

Jesli to istotne podaje moje wyniki z FireStrike test normal : Grafics score 29991 Physic score: 11377

Combined : 6645 OGÓLNY WYNIK : 18782 podaje link : http://www.3dmark.com/fs/3778382

 

Valley test:
FPS 116
Score - 4854
Min FPS - 35
Max fps - 168

Heaven :
Fps - 130
score 3290
min fps - 10
Max fps - 242

Fire Strike 
18782 score
Grafic score - 29991
Physics score - 11377
Combined - 6645

 

Pytanie: Czy jest to typowy bottleneck? Czy monitor moze miec cos z tym wspolnego?

Dodam iż kombinowałem juz z opcjami w nvidia panel ( wysoka wydajnosc, tryb jednomonitorowy itd....) nic nie pomogło. 

Jezeli potrzebujecie wiecej video z innych gier aby zbadac sprawe dajcie znac to wrzuce.

 

Bardzo prosze was o pomoc. 

Pozdrawiam serdecznie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Beta Evolve

3,5GB ram nic więcej nie chce użyć, gra wywala się pod koniec pierwszego meczu, albo w drugim z braku pamięci. PF off.

 

8GB i 4Gb na karcie to za mało do grania na 1600x1200 w max detalach w grach w 2014/2015 roku LOL !

Edytowane przez KaszaWspraju

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tak, na forum guru3d doszli do tego że być może 12GB ramu wystarczy do obsłużenia 4GB VRAM, w innym wypadku pozostaje swap.

 

Czy w takim wypadku w informacjach dotyczących karty graficznej nie powinna oprócz zasilacza znaleźć się wymagana pamięć ram ?

 

Doszli też do tego że pamięć która nie jest wykorzystywana w grze jest wykorzystywana w innym celu np. nadwyżki z 3500, 3700

Bodajże pisali też coś o problemach w 32bitowych aplikacjach.

 

Szczerze mówiąc ciężko mi wyciągnąć wniosek z tamtego tematu, może komuś innemu się uda.

Edytowane przez xardas228

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

U mnie przy 16g ramu problemy występują tylko w 4k jeżeli mam wyłączonego swapa.

Lipa jest w takich tytułach jak

 

-AC Unity (to nie dziwi ;-) )

-Dragon Age Inqusition

-Battlefiled 4

 

Natomiast żadnych problemów nie mam chociażby w

 

-Crysis 3

-Tomb Raider

-Metro 2033 + Metro 2033 Redux

-Metro Last Light + Metro LL Redux

-Diablo 3 ;-)

-AC Black Flag

Edytowane przez Gosu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wiem że nie bardzo na temat ale, mam teraz problem z 3dmarkiem nie mogę przejść żadnego z testów bo wywala mi komunikat "window_focus_lost: Display resolution changed" nie ważne czy karta jest po OC czy nie. A jeszcze 2 dni temu wszystko było ok. Myślę że to może być wina ostatniej aktualizacji do MSI Afterburner. Ma ktoś rozwiązanie?

 

Jednak myślę że to wina braku VRAM  bo czasami wywali mi info o zmianie schematów kolorów W7. Ale czemu wcześniej było wszystko ok a teraz nagle się posypało?

 

Tak jak sądziłem to wina najnowszej aktualizacji do MSI Afterburner która wywala 3dmarka. Po zamknięciu programu wszystko śmiga jak należy, także czasami nie aktualizujcie go.

Edytowane przez scratix

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nvidia zabrala juz w sprawie vramu jakies stanowisko? Czy dalej spekulacje itp?

 

PS. gosu, jak mozesz pisac w sygnaturce "moje unikaty" skore je sprzedales? Zyjesz w matrixie czy jak?

 

1. Są u moich znajomych i je odwiedzam, a skoro długi czas były w moim posiadaniu to są moimi unikatami, owszem. Sam fakt że takie karty miałem w posiadaniu jest dla mnie wart odnotowania, ma to wartość kolekcjonerską.

2. Oczywiście że żyję w Matrixie, z tym że mam doskonałą świadomość tego jak on działa. A czy tobie mówi coś określenie "Nowy Porządek Świata", grupa Bilderberg, "Disclosure Project". Informacje jakie są ukrywane przed społeczeństwem itp.? Świat to generalnie Matrix.

3.Również się odwdzięczyłem :)

4.Masz swoje zdanie i nie ma problemu.

5.Koniec offtopu :)

Edytowane przez Gosu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tak, na forum guru3d doszli do tego że być może 12GB ramu wystarczy do obsłużenia 4GB VRAM, w innym wypadku pozostaje swap.

 

Czy w takim wypadku w informacjach dotyczących karty graficznej nie powinna oprócz zasilacza znaleźć się wymagana pamięć ram ?

 

Doszli też do tego że pamięć która nie jest wykorzystywana w grze jest wykorzystywana w innym celu np. nadwyżki z 3500, 3700

Bodajże pisali też coś o problemach w 32bitowych aplikacjach.

 

Szczerze mówiąc ciężko mi wyciągnąć wniosek z tamtego tematu, może komuś innemu się uda.

 

 

Parę userów ze sporą liczbą postów i uważających się za tamtejszą szlachtę strollowała tamten temat doszczętnie, zmieniając jego sens diametralnie, co w efekcie doprowadziło do  zamknięcia tematu na czym Bóg wie czemu cholernie im zależało... Boże co za obłąkani ludzie.

 

Co do zależności między ilością ramu a vram-u to chyba głupszej teorii to oni wysnuć nie mogli, grrrr co za typy... Przykładem może być choćby to, że GTX 980 bez problemu wykorzystuje pełne 4GB Vramu bez względu na ilość ramu w pc; tu masz nawet dowód https://www.youtube.com/watch?v=HSp9NXx4C_8 - autor gameplay-u ma 8GB ram-u i jakoś jego 980-tka nie ma problemu z zaadresowaniem całej pamięci.

Edytowane przez Cri5t

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czyli patrząc po zachowaniu tamtych "ludzi" ich forum nie jest raczej warte uwagi.

Osobiście braku vramu ani w shadow of mordor ani w ac unity nie odczuwam, ale już w skyrimie tak. Ciekawi mnie czy nvidia się wypowie w tej sprawie kiedykolwiek.

Edytowane przez xardas228
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Również nie zauważyłem jakichś większych problemów z mikroprzycięciami, no może z wyjątkiem FC4 (po ostatnim patchu jest dużo lepiej), no ale to gra od UBI... W twoim przypadku problemu szukałbym jednak w Skyrimie nie zaś w karcie, tym bardziej gdy mówimy o modach, które mogą bywać problematyczne.

 

Nie mniej jednak, w dalszym ciągu frapuje mnie różnica w konsumpcji pamięci video tych dwóch kart i czym jest ona spowodowana. Może to bug, który lada moment zostanie wyeliminowany przez nową wersję sterowników, a być może taki był zamysł  inżynierów Nvidia od początku.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

1. Są u moich znajomych i je odwiedzam, a skoro długi czas były w moim posiadaniu to są moimi unikatami, owszem. Sam fakt że takie karty miałem w posiadaniu jest dla mnie wart odnotowania, ma to wartość kolekcjonerską.

2. Oczywiście że żyję w Matrixie, z tym że mam doskonałą świadomość tego jak on działa. A czy tobie mówi coś określenie "Nowy Porządek Świata", grupa Bilderberg, "Disclosure Project". Informacje jakie są ukrywane przed społeczeństwem itp.? Świat to generalnie Matrix.

3.Również się odwdzięczyłem :)

4.Masz swoje zdanie i nie ma problemu.

5.Koniec offtopu :)

Przepraszam że sie wtrącam, ale widzę ze masz w miarę podobny zestaw do mojego. Czy mogłbys zobaczyc moj post ktory zamiescilem wyzej? Czy problememe moze byc u mnie RAM i brak Oc procka?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przepraszam że sie wtrącam, ale widzę ze masz w miarę podobny zestaw do mojego. Czy mogłbys zobaczyc moj post ktory zamiescilem wyzej? Czy problememe moze byc u mnie RAM i brak Oc procka?

 

Jak dla mnie problemy ze sterami i tyle. Bo sam nieraz przy procku na 4.8 mam niskie użycie GPU a fps mały. Sporo już o tym było pisane, musimy czekać aż Nvidia się ogarnie z tematem.

Chociaż możesz spróbować procka pociągnąć trochę jeszcze.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Uwaga uwaga, moja szklana kula mówi że to monstrum będzie miało:

1024 procesory strumieniowe, 80 jednostek teksturujących oraz 32 ROP.

 

(Specyfikacja gtx965M chociaż niby to GM204 więc kto wie..)

Edytowane przez GeMtin1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

GM206-300-A1 "Maxwell" • Taktowanie układu: 1177MHz, Boost: 1240MHz • Pamięć: 2GB GDDR5, 1750MHz, 128bit, 112GB/sJednostki shadera/TMUs/ROP: 1024/64/32 • Moc obliczeniowa: 3410GFLOPS (Single), 100GFLOPS (Double) • Technologia: 28nm • Pobór mocy 120W (TDP), brak danych (stan spoczynku) • DirectX: 12.0 • OpenGL: 4.4 • OpenCL: 1.2 • Model shadera: 5.0 • Interfejs: PCIe 3.0 x16 • Typ: Dual-Slot • Złącza: DVI, HDMI 2.0, 3x DisplayPort 1.2 • Zewnętrzne zasilanie: 1x 6-Pin PCIe • Cechy szczególne: 2-Way-SLI • Gwarancja: trzy lata • Uwaga: HDMI 2.0 bez HDCP 2.2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wersje z 3GB vramu, szyną 192bit i zasilaniem 1x8pin bym kupił, a tej wersji raczej nie zakupię, zobaczymy jak wyjdzie w grach na full hd ale na ultra raczej nie ma co liczyć. Musieliby zrobić cenę w okolicach 800zł, żeby był sens kupienia tego.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie wiem czy tylko ja to tak widzę, ale 960 to taki ucięty na pół 980, mam nadzieję, że z ceną zejdą więcej niż przez pół :D

Nie rozumiem polityki asusa z zasilaniem, tj. w gtx970 w strixie mamy tylko jedną kość 8pin, tutaj dadzą jedną 6pin, nie wiem ile groszy więcej kosztuje te 2pin więcej ale więcej na tym stracą niż zyskają.(jak to mówią, oszczędny dwa razy traci)

Edytowane przez xBum

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

Ładowanie


×
×
  • Dodaj nową pozycję...