Skocz do zawartości

Rekomendowane odpowiedzi

Witam wszystkich mam taki maly dylemat, sprzedalem ostatnio moj komputer FX9590 + R9 390X i nabylem za £50 oto taka maszynke :

 

Case: Cooler Master HAF 912
Power Supply: be quiet 630Watts 80 plus Bronze
SSD: Crucial 256GB
Motherboard: Gigabyte Z68X-UD4-B3
CPU: Core i5 2500K OC to 4.7Ghz .
Cooling: Cooler Master Hyper 212
RAM: 8GB DDR3 1333Mhz
Graphics Card: EVGA GeForce GTX480 1.5GB

OS: Windows 10 X64

 

 

Strasznie napalilem sie na 4K bo widzialem u kumpla jak to wyglada, mam monitor 32" 2560x1440, ogolnie jako fan AMD chce kupic Ryzena + Vega + jakis monitor 4K ale ze udalo mi sie podkrecic tego i5 do 4.7Ghz to nie bylo by glupim pomyslem poprostu dadac jakiegos 1080Ti I kupic monitor 4K, co o tym myslicie? korci mnie poprostu wymienic obudowe, dadac HDD i RAM i nowa karte, ale odpycha to ze te czesci maja juz swoje lata i cos moze pasc w kazdej chwili ale zamiasc wydawac ponad £2000 na nowy PC i monitor i czekac do Wrzesnie moge wydac duzo mniej i miec 4K w poniedzialek, co o tym myslicie? :)

Edytowane przez Octane

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zależy ile chcesz mieć FPS-ów .

 

I5 2500K@4,7 Ghz + 8GB ram + GTX1080Ti w niektórych grach pozwoli na 40-50 fps , w innych będzie 30 lub mniej fps .

 

W Doom , GTA V czy Hitmanie może będzie ~60 fps , najgorzej będzie w F4 -  przy 4K + Ultra + AF 16 na I7 4790K@4,5 Ghz + 16GB ram +  MSI GTX1080Ti Gaming X od 36 do 40 fps .

 

Generalnie do 4K trzeba mieć mocny procek i mocną kartę a najlepiej 2 jak chcesz mieć 4K@60+ fps .

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ramu tez bym dodal, co do fpsow ja nie musze miec 60, zalezy w co gram np The Division gralem na R390X 2560x1440 na maxymalnych detalach a ze fps skakal 30-60 dalem locka na 30 + pad of X1 i gralem tak samo z Mafia III, gram tez na X1 i PS4 Pro wiec musze miec te stale 30 i jest dobrze :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mi szkoda było by pakować 1080Ti docelowo do 30 klatek na sekundę, 1080Ti to karta do 4K/60 a na to nie pozwoli ci 2500K. 2500K ma też pci-e 2.0 więc 1080Ti będzie mieć bottleneck. 

Edytowane przez Novice

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ryzen to słaba opcja do Vega czy 1080Ti. W grach gdzie większość słabo sobie radzi z więcej jak 4 wątkami taki Ryzen będzie na poziomie tego i5, czyli zasadniczo nic nie zyskasz. Dodając 1080Ti do tego procka to też jest głupi pomysł, bo on zwyczajnie jest za słaby do tego. 

 

Moim zdaniem obie opcje które wybrałeś są złe, ale chyba lepiej już pójść w Ryzen 7 1700 + Vega jak tak bardzo chcesz.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wrzucasz test robiony specjalnie pod procesorowe miejsca na 5-6 letnich CPU do dyskusji nad pci-e 2.0 vs 3.0 na 1080Ti ? Ja raczej kierowałem się testami które robił Gosu na SLI, 16x-16x vs 8x-8x daje potężną różnicę nawet na Titanie Maxwell.

Edytowane przez Novice

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A co mam wrzucać? O czym jest temat? O takim właśnie cpu. Trzeba podać kawę na ławę, więc kładę. 2600k to pci-e 2.0, 3770k to pci-e 3.0. Tak samo 2500k a 3570k. Miażdżącej różnicy raczej nie widać, tym bardziej że Ivy jest coś tam wydajniejsze od sandy. Patrzeć na testy po oc, gdzie oba procki mają takie same takty 4500MHz.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tak tylko jak myślisz że 2500K czy 3570K dadzą radę utrzymać utylizację GPU na poziomie ponad 95% przy testach robionych w wyselekcjonowanych miejscach testujących CPU na 1080p z użyciem GTX 1080 (po OC na dodatek) to się mylisz. Będzie spadać nawet do 60%. Sam jak próbowałem mojego PC na 1080p to użycie GPU miałem w procesorowych miejscach momentami po 70%. Czy różnica między 2.0 a 3.0 tak na prawdę wyjdzie miarodajna przy mocno spadającym użyciu GPU ? Ale że ty jesteś wszechwiedzący to jesteś w stanie to stwierdzić więc przyznam ci rację.   

Edytowane przez Novice

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pci-e 3.0 8x już jest wąskim gardłem dla 1080, dla 1080Ti też będzie.

Pcie 2.0 x8 też wiec o czym Ty mówisz? Próbujesz potwierdzić swoją rację, a jak @klaus wykłada kawę na ławę to zmieniasz temat. Wiadomo, że sam CPU jest za słaby do takiej karty, ale jeśli chodzi o wersję PCIe to nie ma większej różnicy. Wejdź sobie w w powyższy test i zobacz jaka jest różnica w DX12 (dla przypomnienia, CPU nie dostaje tam tak po [gluteus maximus], tylko GPU). No kurde pogrom, 2-3 FPS różnicy wynika najprawdopodobniej z różnicy w wydajności CPU. 

 

 

Ale jak lubisz cyferki to proszę: 

http://www.trentonsystems.com

  • Base Clock Speed: PCIe 3.0 = 8.0GHz,[/url] PCIe 2.0 = 5.0GHz, PCIe 1.1 = 2.5GHz
  • Data Rate: PCIe 3.0 = 1000MB/s[/url], PCIe 2.0 = 500MB/s, PCIe 1.1 = 250MB/s
  • Total Bandwidth: (x16 link): PCIe 3.0 = 32GB/s[/url], PCIe 2.0 = 16GB/s, PCIe 1.1 = 8GB/s
  • Data Transfer Rate: PCIe 3.0 = 8.0GT/s[/url], PCIe 2.0= 5.0GT/s, PCIe 1.1 = 2.5GT/s
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Klaus bierze testy CPU w 1080p na GTX 1080 bo przecież z tego wynika że 1080Ti w 4K nie będzie ograniczana. Widzę że ty tak samo. Musicie być chyba z jednych rodziców. Nie wiem czy mówię z baranami że muszę się spierać czy pci-e 2.0 odbije się wydajnościowo na 1080Ti w 4K skoro jak sam testowałem na GTX 1080 1440p to było już widać małą różnicę.

Edytowane przez Novice

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dzieki za pomoc, poczekam do Wrzesnia i wezme Ryzen 7 + Vega :)

Było trochę nieprzyjemności w tym wątku ale koniec końców myślę że jak skłoniło cię to do takiej decyzji to cel osiągnięty bo wydaje mi się że to będzie super zestaw do 4K. Po pierwsze do 4K nie musisz mieć CPU o najwyzszej wydajności jednowątkowej jak 7700K zatem taki R7 będzie w grach łeb w łeb pezy tym oferując większą wydajność w stosunku do ceny w aplikacjach innych niż gry. Po drugie Vega to też moim zdaniem dobry wybór, szczególnie przy coraz większym wsparciu DX12 w kolejnych latach.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość
Ten temat został zamknięty. Brak możliwości dodania odpowiedzi.


×
×
  • Dodaj nową pozycję...