Skocz do zawartości
marbo666

NVIDIA GeForce GTX 1000 / Titan X (Pascal) - Temat zbiorczy

Rekomendowane odpowiedzi

Teraz może być nawet dobry czas na sprzedaż GTX 1080 bo cena chyba poszła do góry. Natomiast GTX 1080 Ti chyba nie zdrożał proporcjonalnie aż tak bardzo jak słabsze karty.

 

Z ciekawości, jaki masz do tego monitor?

 

Mam monitor który mnie dosłownie boli... Dell U2412M

Chce kupić inny ale boje się kupić kolejnego IPSa.

Ten DELL ma taką wadę, że wszystko co powinno być czarne, jest srebrne i świeci. W ciemną grę po zmroku nie pograsz.

 

Zapatruje się na kupno AG322QCX (https://www.purepc.pl/monitory/nowe_zakrzywione_monitory_aoc_agon_dostepne_w_sprzedazy), ale odkąd mam telewizor OLED i wiem, jaka jest różnica najchętniej poczekałbym na monitory z OLED, tylko ta cena...

 

W ogóle zastanawiam się, dlaczego TV z OLEDem mogą mieć "w miarę" normalną cenę, a monitory mają mieć ceny z kosmosu...

Teraz może być nawet dobry czas na sprzedaż GTX 1080 bo cena chyba poszła do góry. Natomiast GTX 1080 Ti chyba nie zdrożał proporcjonalnie aż tak bardzo jak słabsze karty.

 

Z ciekawości, jaki masz do tego monitor?

 

A co do sprzedaży karty to brzmi fajnie ale raczej nie dostanę dobrej ceny bo nie mam nawet pudełka od niej.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Samo SLI 1080 nie jest problematyczne i jest wydajne. Pytanie - czy Skyrim ma dobre wsparcie dla SLI bo tutaj moze byc problem (z tego co pamietam to ten sam silnik co Fallout 3/New Vegas a to nie byl dobry silnik pod SLI). Ewentualnie pobawic sie profilem SLI (Nvidia inspector). I jaki system operacyjny

 

Moim zdaniem najprawdopodobniej jest problem z obsluga SLI ze strony gry

 

@edit

 

Przypominam sobie, ze majac SLI  - mialem problem z New Vegas (a to ten sam silnik) - w SLI bylo niegrywalne - pomogl jakis patch a konkretnie podmiana jakiegos pliku DirectX. Poszukaj pod tym kątem bo Skyrim nie powinien miec problemu z 4K@60fps - zwlaszcza w konfiguracji 2 x 1080

Edytowane przez eNeSik

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Witam, planuję zakup 2x Asus ROG Strix GeForce GTX 1080 Ti, moja specyfikacja:


 


  • Procesor Intel Core i7-4790K
  • EVGA GeForce GTX 980 Superclocked ACX 2.0
  • Płyta główna MSI Z97 GAMING 5
  • Pamięć G.Skill TridentX DDR3 2x8GB 2400MHz CL10
  • Samsung SSD 850 EVO 250GB
  • Zasilacz SeaSonic 650W (SS-650KM3 F3)

chcę grać w 4k dlatego taki zakup, ale czy ten zasilacz da radę? 


Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

czemu akurat te dwa modele? trochę się naoglądałem youtube i poczytałem wujka google, trochę opini jest za strix-em część za aorus, ale trochę więcej fps-ów zdobywała wersja zotac-a i odnosili się do niej jako numer 1, aours był za to cichutki.

 Mieszkam w Holandii i tu mam aorus-a za 839 euro a strix-a za 846 euro

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Bierz Strix'a. I nie patrz na to że gdzieś  tam napisali że ta czy inna  karta wyciąga więcej FPS bo to bzdura. Jest wyżej fabrycznie taktowana to normalne że wyciągnie więcej FPS. Nigdy nie patrzy się na bazowe taktowanie kart graficznych tylko na chłodzenie i kulturę pracy.   Wyższe taktowanie można samemu ustawić i praktycznie zawsze przebić to fabryczne u konkurencji. Jest to banalnie proste i zwykle kończy się na przesunięciu suwaków. 

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Bierz Strix'a. I nie patrz na to że gdzieś  tam napisali że ta czy inna  karta wyciąga więcej FPS bo to bzdura. Jest wyżej fabrycznie taktowana to normalne że wyciągnie więcej FPS. Nigdy nie patrzy się na bazowe taktowanie kart graficznych tylko na chłodzenie i kulturę pracy.   Wyższe taktowanie można samemu ustawić i praktycznie zawsze przebić to fabryczne u konkurencji. Jest to banalnie proste i zwykle kończy się na przesunięciu suwaków. 

 

Ok, a więc biorę strix-a, możesz jeszcze podać mi link jak ją podkręcić żeby nie uszkodzić? raczej wiem jak to zrobić ale to dla pewności, może być na priv albo tu, jak Ci wygodnie :)

w Polsce Asus Strix za 4000 zł ? szok! co się w tej Polsce dzieje, jak chcecie lukać jakie ceny w Holandii sprzętu to wiatraki kupują najczęściej z tej strony www.bol.com

Edytowane przez yesterday

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zainstaluj sobie MSI Afterburner:

 

http://www.guru3d.com/files-details/msi-afterburner-beta-download.html

 

 

Po zainstalowaniu program się uruchomi sam.    Wyszukujesz Core Clock i przesuwasz suwak w prawo o powiedzmy 50 i testujesz jakimś programem typu Heaven Benchmark.  Po teście sprawdzasz taktowanie rdzenia na wykresach w MSI Afterburner.     

 

Co wypada zmienić  przed OC to ew Power Limit na maxa czyli 120%

 

Pamięci bym nie ruszał i zostawił tak jak jest.    Testuj kartę za każdym razem sprawdzaj takowanie po OC. Ustaw tak by w trakcie obciążenia karty graficznej taktowanie rdzenia było na poziomie 2000 mhz. Zresztą nawet bez OC karta tak mocno boostuje, że to powinno Ci wystarczyć. 

 

Masz sporo poradników na Youtube jak używać MSI Afterburner. Muszisz stworzyć swój profil i a program  ustawić tak by się uruchamiał  wraz ze startem systemu i ładował Twój profil OC. Tak byś nie musiał za każdym razem ręcznie podkręcać tego rdzenia.  

 

Naprawdę  nie jest to trudne. Ja sam się kiedyś nauczyłem i nie potrzebowałem do tego poradnika. 

Edytowane przez Devil

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Posiadam gtx 1070 i monitor aoc i2369vm. W ciągu ostatniego miesiąca miałem z pięć razy sytuacje w której obraz zrobił się czarny. Dokładniej np: dzisiaj oglądając Netflixa nagle obraz robi się czarny, ale jest to czerń wyblakła, taka jaką wyświetlił bym monitor (zresztą widać podświetlenie monitora działa), dodatkowo system wydaje się działać, dźwięk jest, nie mogę wyświetlić menu ustawień monitora, a problem naprawia się po wyłączeniu i włączeniu monitora lub odłączeniu kabla DisplayPort i ponownym podłączeniu. Pytanie czy karta umiera? 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na karcie próbowałem inne złącze DP, ale nie na monitorze. Spróbuje go podłączyć do HDMI. Ogólnie ostatni raz miałem ten problem ponad 2 tygodnie temu, zmieniłem sterowniki na nowsze i myślałem, że problem się rozwiązał. Akurat problem się pojawił ponownie dzisiaj jakąś godzinę po tym jak w ustawieniach monitora zmieniłem DPS (Dyn. oszcz. en.) na "Wyłączony" i Overdrive "słaby" z "Wyłączony". Dodatkowo mam jasność 90 ustawioną i monitor dzisiaj działa ponad 12 godzin bez przerwy. Czy może się przegrzewać ?Gdyż matryca jest całkiem ciepła.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No ja widzę ze wynik jest raczej w stronę 6 rdzeniowych cepów...a Ty masz problem z arytmetyką...Bohaterze? Ciekawy config Setniku. Mówiąc wprost ten procesor nie nadaje się do tych kart w tandemie. To jest teraz lipa w tym abstrakcyjnie drogim zestawie.

Generalnie to tak...

 

i7 5930K@4.6 vs i7 7700K@4.8 wraz z 2x TX P

 

 

i7 6950X@4.4 vs i7 7700K@4.8 wraz z 2x TX P

 

 

Testy robiłem jeszcze przed wodowaniem kart.

 

Bonusowo 5930K vs 6950X

 

 

Wnioski są następujące, w 1080p oraz 1440p 7700K obrywa niemiłosiernie, z powodu linii PCI-E, mniejszej ilości wątków, keszu - To wszystko ma znaczenie. Niemniej jednak mostek HB BARDZO pomaga Pascalom w 4k. Różnicie przy 2x 8 vs 2x 16 PCI-E względem tego co było na Maxwellach, są powalające. Testy 2x flex / flex vs HB również robiłem. Jak pododaje na YT obecnie czekające materiały, to polecą też.

 

5930K@4.6 Ghz = 6850K@4.3 GHz , gdzie obydwa proce wraz z platformą X99 można wyrwać teraz w dość podobnej cenie co 7700K + Z270. X299 unikać jak ognia, jak wiadomo - syf.

 

Jak testowałem 5930K vs 6950X to mnie zaskoczyło pozytywnie , jak sobie ten 6/12 HW-E dawał radę na tle znacznie droższego procka. No ale już 5930K sprzedany i 6950X zagościł na stałe i tak ;-)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Witam,

 

Podczas maksymalizowania okna windows w trybie głębi 32 bity pojawiają się dziwne kolorowe paski.

 

Czy świadczy to o nieprawidłowym funkcjonowaniu karty graficznej czy innego podzespołu?

 

a wygląda to tak:

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Witam.

Zastanawiam się nad kupnem Gigabyte Nvidia GTX 1060 WindForce2 3GB (GV-N1060WF2OC-3GD). Obecnie mam AMD R270X, i5 3570K i 2x8GB Corsair 1600mhz.

Nie wiem czy warto inwestować tylko w nową karte graficzną jeśli procesor nie jest z najwyższej półki?

 

Dzięki za wszelką pomoc :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Sądzę , że do 3570K - zwłaszcza po OC spokojnie możesz dać GTX1060 ( nawet i 1070-na upartego )  ;)

Karta powinna być ok. 2 X wydajniejsza , od obecnej , z większa ilością VRAM ( mowa o 6GB wersji GTX1060 ).

Hmm wersja 3GB to "trudny" przypadek , osobiście wolałbym dołożyć do wersji z pamięcią = 6GB.

3 GB Vram to już na styk , lub nawet mało, w nowszych produkcjach.

Chyba , że masz zamiar "optymalizować" tak detale w grach by, dana gra nie brała więcej Vram-u - to powinno być OK.

2 sprawa: wersje 3 GB są trochę mniej wydajne od wersji 6GB.

Cytat z innego forum:


"GTX 1060 w wersji 3 GB to dziwny produkt. Czy to w ogóle jeszcze GTX 1060? Nvidia postawiła przecież na kompromisy idące dalej niż pula pamięci - zmniejszono też liczbę jednostek obliczeniowych. Pełne 1280 shaderów z modelu 6 GB zmniejsza się tu do 1152, co powinno chyba wiązać się ze zmianą nazwy"

 

Różnice w wydajności są przeważnie niewielkie , rzędu 5% ( uwzględniając zegary kart itp.), ale jednak występują.

Nvidia wydaje, od niedawna również GTX1060 6GB z szybszymi pamięciami-ustawionymi na 9Gbps i taką wersję bym polecał, np:

Gigabyte GeForce GTX1060 Aorus 6GB DDR5 192bit (1860/9026)

 

Jeżeli cena jednak "odstrasza" + biorąc pod uwagę i akceptując w/w "niedogodności" wersji 3GB można ja również -jednak- brać pod uwagę np ( niedrogi ):

ZOTAC GeForce GTX1060 3GB DDR5 192bit (1708/8000) 5 lat GW ( producenta )- po rejestracji na stronie ZOTACa.

Edytowane przez Phill76

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Witam. Dzisiaj kupiłem nową kartę graficzną, jaką jest msi gtx 1050ti gaming 4g (bez x). Problem polega na tym, co jest wskazane w temacie, czy na niskim zużyciu gpu np w grze Playerunknown battleground. Przez większość czasu utrzymuje się w okolicach 50-70, skacze czasami do 80-90, ale potrafi spaśc nawet do, 15-30%, przez co mam 15-30 fpsów wtedy. Zasilacz to Antec vp 500 pc. Nie mam pojęcia, co może być tego przyczyną, dlatego liczę na szybką pomoc. Temperatura zarejestrowana w msi afterburner wynosi max tak 62 stopnie. W Battlefield 3 użycie wynosi 80-90%. W teście valley benchmark oraz gpu z, a także w MENU gry PUBG wynosi 97%. Windows 7 sp 1 64bit. Sterowniki 381.65. Na najnowszych sterach jest to samo. Zużycie procesora w tej grze nigdy nie sięga 100% (PUBG), wacha się od 70 do 90, przez większośc czasu tak 82-90, max 96, min 73. Ograniczenie przez procek by było chyba wtedy, gdyby użycie jego wynosiło 100% non stop. Poza tym ROZDZIELCZOŚĆ to 1280x1024, więc chyba nie możliwe, aby mój procesor ( i5 3350p podkręcony do 3,6 GHz ) w takiej rozdziałce ograniczał tą kartę. Napięcie karty wynosi 1,100 V zwiększone w msi afterburner.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

przy 82-90% na CPU już ograniczasz grafikę w wielu przypadkach. Sam u siebie widziałem spadki uzycia GPU ponizej 90% kiedy procek miał koło 90% na wszystkich wątkach. Wracając jednak do problemu to czesto widzę ostatnio takie wątki dotyczące spadków fps w tej konkretnie grze, więc pewnie problem jest albo tylko z tą grą albo przynajmniej gra mocno się do tego przyczynia. Ja na poczatek próbowałbym różnych wersji sterownika.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Panowie mam "ciekawy" problem.....

 

Zamontowałem sobie GTX1080 GLH, karta miód malina, ale mam denerwujący problem....  Mój zasilacz 900W Tagan U33 dostaje amoku gdy karta pracuje pod pełnym obciążeniem, np. podczas gry w Wiedźmina 3... Jak to wygląda:

 

Gdy taktowanie rdzenia karty jest do około 1700Mhz zasilacz pracuje cichutko, karty nie słychać jest ok...

 

Gdy taktowanie rdzenia dobija do 2000Mhz zasilacz wydaje z siebie potwornie piekielne buczenia i piszczenia jakby miał za chwilę eksplodować... nie są to wentylatory, te niedawno wymieniłem na cichutkie, czyli pewnie cewki itp.

 

Co ciekawe nie ma znaczenia że włączyłem Vsync i mam te 60FPS na maksymalnych detalach... gdy pojawią się scena szczególnie mocno obciążająca grafikę buczenie i piszczenie narasta po przekroczeniu 1700Mhz... czyli zapewne jest to powiązane z dodatkowymi W pobieranymi przez kartę graficzną.

 

Podpinałem kartę zarówno do wiązki zasilania A 6+8 jak i B 6+8, zarówno na ustawieniu Turbo jak i Normal.

 

Nic nie pomaga, bzyczy, buczy, oby nie eksplodował :wisielec:

 

Dla ciekawostki np.  w W o Warships taktowania przy 60fps utrzymywało się na poziomie 1250Mhz i było idealnie cicho.

 

Innymi słowy przy obciążeniu powyżej 1700Mhz zasilacz zaczyna koncertować.

 

I teraz pytanie czy da się coś z tym zrobić, czy to wina zasilacza a może sekcji zasilania na karcie graficznej? Wcześniej miałem GTX1070GS i pojawiało cię ćwierkanie cewek zasilacza ale nie w takiej skali jak obecnie....

Edytowane przez TomaszPaweł

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

1080 GLH będzie brała w stresie ~240 [W] ( moja przy zegarze 1709/1847 - realny boost nie mniej niż1962 [MHz] bierze ok. 230-23x [W] )

GTX1070 brał ok. 70-90 [W] mniej , a zasilacz - do "nowych" nie należy- niestety .

[ P.S. Tagan U33 to konstrukcja z ~2007 roku ]

Edytowane przez Phill76

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

O dziwo nic się nie dzieje niepokojącego , jednak napięcie na linii +12 -pod pełnym obciążeniem- już trochę spada, do okolic 11,8x [V]

W Idlee jest ok ~12,05 [V]

 

Nic nie piszczy , jedynie jak jest bardzo duża liczba klatek ( > 1000 ) -w moim ulubionym HP2 ( z 2002 ) to słychać troszkę cewki w karcie grafiki .. = blokuje liczbę klatek w starych grach Rivatuner-em.

Edytowane przez Phill76

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

https://www.3dmark.com/compare/fs/13481826/fs/13488646#

2 025 MHz vs 1 823 MHz na niekręconym 2600k

Te 200 MHz robi ogromną różnicę w poborze prądu, co skutkuje dużo cichszą pracą zasilacza. Różnica w FPS + 6.3 %


W wolnej chwili potestuje wyższe taktowania z UV.


A za jakiś czas nowy zasilacz...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

Ładowanie



×
×
  • Dodaj nową pozycję...