Skocz do zawartości
jacool

Ivy Bridge-E (LGA2011)

Rekomendowane odpowiedzi

Ivy Bridge-E nadchodzi Dołączona grafika Premiera w przyszłym miesiącu a na forum kompletna cisza Dołączona grafika Dostaniemy 3 nowe procki: i7-4960X; Core i7-4930K; Core i7-4820K.

Serwisy donoszą, że 4930k ma być tańszy od SB 3930k. Zobaczymy.

Trochę informacji tutaj.

Edytowane przez jacekcz

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Raczej żaden producent nie będzie tego dotykał, pewnie zainteresowanie będzie tak małe, że raczej nie będzie im się to opłacać. Pod Haswella moooże...

Niestety, ale sam Intel potraktował ten fragment rynku po macoszemu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

na przyklad z tego wzgledu że 4820k <plotka>ma lutowany ihs do rdzenia</plotka> poza tym ma być tanszy niz 4770k co prawda ta różnica sie niweluje przy płycie. osobiście wolałbym dopłacić do lepszych temperatur i ew. lepszego oc nawet przy mniejszej wydajności podstawowej

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ceny 6 jajkowych prockow i plyt zawsze beda dosc wysokie, bo Intel liczy wg wydajnisci jaka zyskujesz. Chodzi o to, ze przy obciazeniu 24/7 dodatkowe rdzenie daja olbrzymi wzrost wydajnosci, jesli mamy dostosowane aplikacje.Ich nie obchodzi czy grasz, czy to sie kreci itd. Oni gwarantuja pewna moc i wydajnosc w zakresie specyfikacji procka. Podkrecanie to zupelnie inna bajka - wiadomo, ze robia rozne rzeczy ale na pewno nie jest to ich priorytetem. Bezposrednim tego dowodem jest zablokowanie mnoznikow. Kazdy indywidualnie powinien zdecydować, czy platforma z 6 jajkami jest mu potrzebna i czy jest oplacalna. Jesli idziesz w gry to nie ma co sie cisksc powyzej 4 rdzeni, mozna tez darowac sobie HT. A te kase przeznaczyc na inne komponenty.Jesli idziesz w rendering i video, to rzeczywiscie 6 rdzeni pomoze, szczegolbie jak sie robi wiele rzeczy na raz. Pamietac trzeba jednak ze wtedy nie kupuje sie dziadowskich dyskow czy malo ramu.Po prostu LGA2011 jest dla znacznie zamożniejszych klientow. Problem w tym, ze czasami lepiej jest miec 2 slabsze komputery niz jeden wypasiony.Sent from my GT-I9100 using Tapatalk 4

Edytowane przez _KaszpiR_

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Może, ale nie musi .Osobiście to w to nie wierze.

Procesory 4 rdzeniowe mamy od kilku lat i jakoś postępu nie ma.

 

Tak naprawdę gry od jakiegoś czasu są podzielone na wątki, aby wykorzystać możliwości systemu, ale niestety pewne rzeczy są niepodzielne - a przez to nie da sie zbynio zwiększyć wydajności.

 

- rendering - 1 wątek, głównie dlatego, ze OpenGL czy DirectX jakos sobie z tym nie radza, a jesli juz to najczesciej jest to sprawa wykorzystwana w SLI/CrossFire.

- audio - 1 wątek, więcej nie trzeba

- siec - 1 watek na socket, ale realnie jeden watek ogolnie starczy. Czasem  inne watki sa tworzone, bo pobieramy dodatkowy content w tle,np statystyki.

- system plikow - wiadomo, ze tutaj jeden watek radzi sobie lepiej, najczesciej laduje sie cale pliki do pamieci

- logika gry - 1 watek lub wiecej, czasami dodatkowe watki powstaja dla fizyki itd.

- user input i interakcja - ten watek jest najwazniejszy, bo ma wplyw na cala reszte. Tego nie da sie podzielic na watki, dlatego tutaj cisnie sie w megaherce na rdzeniu.

 

Najczesciej audio,siec,system plikow spokojnie mozna wcisnac na jeden rdzen, pozostale na osobne rdzenie - wychodzi 4.

Wspolczesne HT daje na 4 rdzeniowcu 8 logicznych rdzeni, a nie widac jakiegos wymiernego wzrostu wydajnosci czy dodatkowych bajerow.

 

Programowanie wielowatkowe jest proste, bo wiele watkow moze dzialac nawet i na jednym rdzeniu, a przy wielu rdzeniach odpowiednio system rozrzuci obciazenie.

Co innego programowanie z wykorzystaniem wielu rdzeni do rozwiazania danego problemu.

 

Ostatnimi czasy jest trend tworzenia zadan i kolejkowania ich przez gre - ale to ssytem operacyjny i sterowniki musza sobie z tym poradzic. Idealnym przykladem jest tutaj przyklad DirextX i Corssfire - co z tego, ze gra wysylala komende GenerujKlatke do sterownika i niby pokazywalo to ze FRAPSIE 150FPS, kiedy realnie sterowniki nie dawaly rady i realnie bylo to 60 klatek z fragmentem z pierwszej grafiki, a druga grafikia renderowala kompletnie zbedny obraz wyswietlany w szerokosci kilku pikseli.

 

Intel swietnie sobie zdaje z tego sprawe, miedzy innymi dlatego w Haswellu są kompletnie nowe instruckje zwiazane z transakcjami - TSX - majace na celu ulatwienie pisania aplikacji, ktore moga skorzystac z wielu procesorow przy wykonaniu zadania. Problem w tym, ze procesory z serii K nie posiadaja tych instrukcji, poniewaz sa dedykowane dla overclockerow i graczy, a nie profejsnonalnych rozwiazan na poziomie enterprise. Osobiscie chetnie zobaczyl bym jak niektore gry by dzialaly po przekompilowaniu, aby korzystaly z TSX. Niestety natura wielu gier raczej nie zapowiada, aby cos takiego nastapilo. No chyba, ze strategie...

 

 

Aktualnie i tak najwieksza bariera w grach na PC są warstwy abstrakcji miedzy sprzetem a srodowiskiem w ktorym gra dziala - warstwy sternika, jadra systemu, orchony systemu przed niewlasciwym dostepem do pamieci itd... - to zabija wydanosc. Niestety ale raczej juz od tego sie nie odejdzie, chyba, ze powstanie system operacyjny stricte przeznaczony do gier.

Problem w tym, ze konsole juz maja takie systemy operacyjne. Moim zdaniem czas pewnie nam pokaze, ze takie cos powstanie dla PC, i to pewnie bezposrednio od Valve i ich platformy Steam, aczkolwiek na linuksie, wiec tez nie bez bezposredniego dostepu do sprzetu.

Edytowane przez _KaszpiR_

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Kyle 8 wątków to mają teraźniejsze i7 i nic z tego nie wynika

Miałem na myśli to że gry pisane na konsole nowej generacji, będą optymalizowane na 8 wątków (bo takie CPU one mają) i dzięki temu jest szansa, że wersje dla PC będą również wykorzystywać 8 wątków ... nie o istnienie 8-wątkowych i7 (od kilku lat, bo od 2009 roku) czy 8 wątkowych Faildozerów mi chodziło.

Edytowane przez Kyle

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Może się coś zmienić w najbliższej przyszłości (nowy X-BOX i PS4 mają procesory 8 wątkowe).

HT czasami wręcz zaniżą wyniki np.: w Far Cry 3, gdzie jego wyłączenie na moim i7-3770K i zostawienie 4 gołych jajek pozwala uzyskać 3% wyższy FPS Dołączona grafika

Miałem na myśli to że gry pisane na konsole nowej generacji, będą optymalizowane na 8 wątków (bo takie CPU one mają) i dzięki temu jest szansa, że wersje dla PC będą również wykorzystywać 8 wątków ... nie o istnienie 8-wątkowych i7 (od kilku lat, bo od 2009 roku) czy 8 wątkowych Faildozerów mi chodziło.

Pamiętaj, że poszczególne rdzenie mogą odpowiadać za obsługę systemu, protokołu sieciowego itp., więc wszystkie 8 bezpośrednio na gry raczej nie zostanie przydzielone. Poza tym, taki "ośmiordzeniowy" FX-8350 nagle nie dostanie skrzydeł, bo ma tylko 4 jednostki FPU. 

Genialne, 640x480 w grach typu Bioshock Infinitie i Lost Planet Dołączona grafika Jak już chcieli łamać NDA to mogli się wysilić.

Edytowane przez Caleb

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Genialne, 640x480 w grach typu Bioshock Infinitie i Lost Planet Dołączona grafika Jak już chcieli łamać NDA to mogli się wysilić.

Nie za bardzo rozumiem. Jakby puścili to w wysokiej rozdzielczości i z detalami to testowaliby grafikę, a nie procka, a tak pokazują jak to wygląda w przypadku jak gra jest ograniczona prockiem.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie za bardzo rozumiem. Jakby puścili to w wysokiej rozdzielczości i z detalami to testowaliby grafikę, a nie procka, a tak pokazują jak to wygląda w przypadku jak gra jest ograniczona prockiem.

Dobrze dobranie miejsce testowe, gdzie CPU faktycznie jest ograniczeniem, spowolni Ci nawet GTX Titan Dołączona grafika  Błędne jest twierdzenie, że CPU można przetestować tylko przy niskiej rozdzielczość i minimalnych detalach, a może inaczej - wielu osobom nie chce się wysilać, dlatego robią takie eksperymenty. Po co komu test w Bioshock w 640x480 na niskich ustawieniach? Co to w ogóle daje? Nic, kompletnie nic.

 

Piszę o tym przy okazji, bo ostatnio modyfikowałem procedurę testową CPU i spokojnie znajdziesz miejsca w Far Cry 3, Crysis 3, Arma III oraz Hitman Absolution, czyli nowych i wymagających grach, gdzie CPU staje się poważnym ograniczeniem. Oczywiście, mówię tutaj o 1920x1080 i detalach high/medium + czasami AA, aby oddać realne warunki. Jutro rano pojawi się test gdzie powinno być to dobrze widoczne Dołączona grafika

Edytowane przez Caleb
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja pitole piszesz oczywiste rzeczy , ale żeby dopiero teraz do tego dojść Dołączona grafika , ale lepiej póżniej niż wcale.

A kto mówi, że dopiero teraz Dołączona grafika Przecież to stare prawidła, ale kolega pytał, to odpowiedzi udzieliłem. Widać sporo osób wierzy, że CPU dzisiaj nie ma znaczenia.

Edytowane przez Caleb

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie widzę tego w testach Dołączona grafika

 

Przykładowo w c3 są miejsca , gdzie optymalizacja leży i żadne cpu nie pomoże , pytanie po co testować takie miejsce. Jest wiele miejsc , gdzie cpu leci na 100% i takie miejsce ma sens.

 

Most wanted wielu myśli , że cpu umiera ,a to nieprawda. Gra jest totalnie spartaczona , włączanie detali , które siedzą na gpu powoduje spartaczenie optymalizacji cpu , spada obciążenie cpu. Wystarczy włączyć geometrie na low i na i5 pogramy non stop z 60fps , zdejmujemy refleksy na medium i cienie off nagle mamy 60fps na i3.

 

Bioshock Infinitie jak każda gra na ue lubi szybkie pamięci , nawet nisko taktowana i5 z szybkimi pamięciami zapewni dobrą płynność podczas rozpierduchy.

 

To tyle ode mnie w kwestii gier , nie ma co się rozpisywać.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie widzę tego w testach Dołączona grafika

Ba, stara procedura miała swoje wady, nie przeczę, brakło czasu żeby dopracować detale i wymienić starocie po poprzednikach. Nowa powinna być znacznie ciekawsza. Gry niby te same w większości, ale miejsca inne, lepiej obciążające CPU. NVM, się zobaczy w praniu.

 

 

Przykładowo w c3 są miejsca , gdzie optymalizacja leży i żadne cpu nie pomoże , pytanie po co testować takie miejsce. Jest wiele miejsc , gdzie cpu leci na 100% i takie miejsce ma sens.

 

Most wanted wielu myśli , że cpu umiera ,a to nieprawda. Gra jest totalnie spartaczona , włączanie detali , które siedzą na gpu powoduje spartaczenie optymalizacji cpu , spada obciążenie cpu. Wystarczy włączyć geometrie na low i na i5 pogramy non stop z 60fps , zdejmujemy refleksy na medium i cienie off nagle mamy 60fps na i3.

Z miejscem w C3 powinno być dobrze, bo 4 jajka w 100% potrafiło dociążyć, z HT też ciągnie. Na razie oblatujemy kolejne procki, zobaczymy jak będą się układać różnice itp. pewnie jakieś zmiany jeszcze zajdą, MW i BI nie brałem pod uwagę, więc się nie wypowiem.

Edytowane przez Caleb
  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

Ładowanie


×
×
  • Dodaj nową pozycję...