-
Postów
1391 -
Dołączył
-
Ostatnia wizyta
-
Wygrane w rankingu
1
Odpowiedzi opublikowane przez focus_
- Poprzednia
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- Dalej
- Strona 2 z 55
-
-
Coś to zainteresowanie X6 marne jest...
Przeprowadziłem poglądowe testy bez Turbo i w grach wyszło... szybciej. Dziwne.
-
Nie. Wyniki które zacytowałeś są z ustawień, które nie istnieją w naturze - że tak to ujmę. Wszystkie X6-tki mają w Turbo 500 MHz więcej, oprócz 1090T, który ma 400 MHz więcej. A tutaj dałem Turbo wyżej o 1000 MHz. Koligacji ręcznie nie trzeba ustawiać.Czyli programom, które nie są w stanie wykorzystać minimum 5 rdzeni, lepiej ustawić koligację dla 3 ? ... czy to mogą być dowolne 3 rdzenie ?
-
Ciekawe, co ten gość pokazał i postaram się to samo zasymulować, ale niczego takiego z dotychczasowych testów nie zobaczyłem. Przeprowadzałem szczegółowe testy tego turbo w warunkach trochę eksperymentalnych, ale dobrze obrazujących w czym rzecz. Programem testującym był Fritz Chess - można zmieniać liczbę wykorzystywanych rdzeni i zwraca powtarzalne wyniki. Najpierw mnożnik x16, gdzie Turbo wrzuca mnożnik x18:XtremeSystems Forums - View Single Post - SIX is Sexy! (Unboxed)
wklejam linka ponownie. (wcześniej dałem zły...) turbo na czterech rdzeniach? czy jak?
Focus, co o tym sądzisz?
1 CPU: 2247
2 CPU: 4486
3 CPU: 6624
4 CPU: 7886
5 CPU: 9753
6 CPU: 11281
A teraz to samo z mnożnikiem x13 (podstawowym), ale mnożnikiem Turbo x18 - czyli jeśli wykorzystywane są wszystkie (bądź więcej niż w Turbo można) rdzenie to jest 2600 MHz, ale jeśli wykorzystujemy 3 (bądź ewentualnie 4) rdzenie to mamy 3600 MHz:
1 CPU: 2246
2 CPU: 4483
3 CPU: 6610
4 CPU: 6508
5 CPU: 8032
6 CPU: 9308
Wprawne oko zauważy wszystko co trzeba. Do 3 rdzeni (włącznie) wyniki są identyczne, a gdy działają 4 rdzenie i więcej obserwujemy różnicę rzędu około 21%. Warto też zauważyć, że przy mnożniku nonTurbo x13 i Turbo x18 Phenom II X6 uzyskał wyższy wynik przy 3 rdzeniach, niż przy 4.
Istnieje taka aplikacja K10stat, w której można regulować mnożniki turbo, nie turbo i te idlowskie - więc może tam gość coś zakombinował. Domyślnie - nic takiego nie ma miejsca.
-
nie o to mi chodziło. jak widać jest to pełen thuban a turbo wbrew zapewnieniom o działaniu tylko na trzech działa na czterech rdzeniach.
Thuban @6.7
First benching - AMD 6 core @ 6700 Mhz - XtremeSystems Forums
Niestety, ale Turbo działa DO trzech rdzeni włącznie - na 100%
-
Panowie - poratuje mnie ktoś save'em na to miejsce co "ssie"? Potrzebuje bardzo pilnie do testu grafik w tym czymś ;)
-
Myślę, że część z Was ma już grę za sobą - mógłby ktoś mnie wspomóc save'ami lub informacją wktórych miejscach było "wolno"? Jeśli się uda, to w najbliższym teście grafik dla PurePC dorzucę wyniki w tej grze :)
Pozdrawiam
-
To akurat kwestia obciążenia grafiki - ja obserwowałem inne obciążenie procesora w zależności od wydajności grafiki - w sensie, miałem większe w 1024x768 niż np. w 1920x1200 AA-x4.Dodam jeszcze od siebie, że jakkolwiek jest oceniana grafika oraz mowa o niskich wymaganiach to jednak VGA zgrzała mi się do 73C (co jej się rzadko zdarza), za to 4 jajeczny omlet się nudził - 3 z 4 rdzeni miały max 46-48C, tylko pierwszy się wyrwał na 52C.
-
Na sterownikach o numerze 8.660.6.0000 (tych co są do zassania dla HD 5770) jest wszystko OK na tej karcie.Takie małe pytanie.
Jak wam to śmiga na 4850 z rodziałką 1680*1050?
U mnie jest jakaś kaszana nie zależnie od rozdziałki FPSy skaczą jak głupie. Od 9-130.......
System to win7RC+najnowsze stery
Sprawdzałem na P55 + Core i5, z 4 GB RAMu i Win 7 64-bit. Za chwilkę zbadam na Core 2.
Najlepiej jak podasz mi nazwę mapy gdzie mam tych przycięć ewentualnie szukać - może coś mi umknęło uwadze.
-
Dziękuję wszystkim za odpowiedzi. Przepraszam też za kilkudniową nieobecność.
Tak jak wspominałem, sprawdziłem wydajność na dysku WD 1 TB (model: WD1001FALS). I zgodnie z moimi przypuszczeniami (po tym co przeczytałem od Was) problem nie występuje.
Kopiowanie 1-> 1 na XP to 44,2 MB/s, zaś na Windows 7 45,5 Mb/s. Zapis standardowo trochę szybszy na Win7, zaś odczyt podobnie.
Wnioskować po tym można jedynie to, że problem tyczy się dysków WD większych niż 1 TB (wyłączając 1 TB). Sprawdziłem wszystko co miałem pod ręką (jakieś 10 modeli dysków) i tylko wspomniane WD robią te jaja.
Wyłączenie tego powoduje już katastrofalny spadek wydajności - nawet poniżej 1 MB/s. Choć szybkość transferu skacze pomiędzy wartościami 25 a 1 MB/s to i tak jest to mniej niż na Windows 7 z cache'owaniem kiedy miałem 27,6 MB/s (na XP: 31,7 MB/s).Zapewne chodzi o Ci o 'write caching-policy'
W7:
device manager-> disk drives ->wybierasz hdd który Cie interesuje ->ppm->properities ->zakładka policies
-
Zależy jaka gra. Bo nawet jeśli przez 80% czasu gry będziesz miał te powiedzmy 80 FPS, to przez pozostałe 20% będzie tak wolno (ze względu na CPU), że nie idzie grać, albo jest bardzo niekomfortowo i moim zdaniem należy zbadać te 20%, a nie 80%, bo to drugie jest kompletnie bez znaczenia. Oczywiście, co innego by było gdyby tylko w jednej sytuacji w grze było jakoś super wyjątkowo. Tak było np. przy grze Infernal, gdzie przez całą grę miałeś powiedzmy 70-80 FPS, a w tym jednym tunelu, przez który trzeba było przejść było 20. I wówczas tester powinien uwzględnić typowe miejsce oraz to wyjątkowe. Ale w sytuacji gdy nawet przez 80% gry nic się nie dzieje, to te 20% jest bardzo dużą częścią gry. Inna sprawa, że np. w takim Crysis niemal cały czas masz walkę - więc na tym należy się skupić.No spoko, ale w takim wypadku można się pokusić o stwierdzenie, że to manipulacja. Bo jeden i drugi wynik jest prawdziwy. Po co zatem wybierać taką a nie inną mapę skoro przez 90% gry FPS na każdym procu będzie równe 80 :-) Liczy się wydajność przez większość czasu czy przez mały ułamek? W tym konkretnym przypadku właśnie test DOG jest źle dobrany, bo nie reprezentuje sobą niczego oprócz małego wyrywka gry :-)
Należy też pamiętać, że testy typowo "graficzne" są wyselekcjonowane - omija się miejsca z przeciwnikami itp. nie tylko ze względu na mniejsze obciązenie CPU (choć to jest głównym celem), ale i po to by zwiekszyć powtarzalność testu. Bo nie ma nic gorszego jak to, że nagle np. HD 5850 wychodzi szybciej od HD 5870. Zwróćcie uwagę na "benchmark_gpu" w Crysisie. Owszem są porozstawiani ludzie na mapie, ale oni nic nie robią. My nie oddziaływujemy na żołnierzy. Osobną sprawą jest to, że test typu "przelot nad mapą" jest bez sensu bo tak się nie gra, ale same zasady dotyczace przeciwników itp. zostały zachowane.
A właśnie - jakieś specjalne życzenia co do testu HD 5850?
-
Jajbyś się pokusiłbyś o lekturę choćby 15 ostatnich postów z tego tematu, to byś takich pytań nie stawiał.A mnie interesuje, jak głośny jest wiatraczek na 100% obrotów?? Oraz czy Athlon II X4 620 nie bedzie mocno ograniczać 58xx??
PS. Na nvision jest fajny test kilku CPU dla 5870, ale nie ma powyzszego Athlona.
-
Jeśli by były większe to o jakiś nieistotny detal (choć akurat w FAr Cry 2 czy Fallout 3 już było czuć braki k.graficznej). Wiem gdzie się kończyła karta graficzna i na szybszej różnice byłyby zachowane.focus szkoda że te testy na egiełdzie nie były zrobione na mocniejszej grafie wtedy powinny być większe, corei5 nawet niezły sprzęt gdyby nie kłopoty z zasilaniem i palone sockety (chyba że nowe modele płyt są juz pozbawione tego błędu
Jeszcze raz podkreślam - jeśli ktoś dobrze dobrał miejsce testowe, a sama gra rzeczywiście wymaga od procesora sporo, to nie ważne czy przetestujemy w 800 x 600, czy w 1920 x 1200 (kwestia użytej karty graficznej), relacje między procesorami zostaną zachowane.
W przyszłym tygodniu poproszę o pożyczenie tego HD 5870 (teraz mam HD 5850,ale to jest wolniejsze) i sprawdzę to na kilku konfiguracjach procesorów. Niestety nie mam pod ręką niczego od AMD, ale może coś uda się wykombinować w stylu tego artu na nvision.
-
ok focus czekam na testy, aczkolwiek chyba nikt nie kupuję 5870 żeby grać w 640x480 :), jeśli możesz zapodaj wyniki 1920x1200 przy max detalach jednocześnie staraj się wykazać jak największą różnicę między poszczególnymi cpu, być może skłonisz mnie do ponownego zakupu intela, jeśli różnice będą miażdżące ;)
heh... ;)
Jeśli miałbym przeprowadzić analogiczny do nvision test, to z grubsza różnice wyszłyby takie jak tutaj: 3382454[/snapback]
Ale w jakim celu? Żeby w Crysis pokazać minimalny frame rate na poziomie 10 czy 20 klatek? Niech testuję z odrobiną zdrowego rozsądku i wtedy nawet rozdziałka 1280 czy 1440 (oczywiście przy zachowaniu maksymalnych detali) będzie jak znalazł :wink: Co do poprzedniego posta Focusa to właśnie o to chodzi, niektórzy lubią grę z 25fps inni 40fps (jeszcze inni rozdzielczość 1920 przy 10fps :lol: ) i dlatego idealnego testu nigdy nie będzie :wink: pzdrhehe - trochę offtopicowo, ale nie zapomnę jak czytałem posta człowieka który twierdził, zacytuję: "u mnie crysis chodzi w fullhd ze wszystkim na max". No to zapytałem na jakim sprzęcie: "no radeon HD 3850 z Athlonem II X2". Później okazało się, że (inny już człowiek) do fullHD wystarcza HD 4870. Jednak z jakiegoś powodu dopiero na HD 5870 można grać w rozdzielczości 1920 x 1200 sensownie.
Co do "idealnego testu" - tutaj nie chodzi o test, tylko o odrobinę myślenia ze strony czytelnika. Większość (niestety) widzi takie coś:

i natychmiast okazuje się, że ten "procesor X" którym jest PDC E5200 jest równie szybki jak E8600 - bo rozdzielczość fullHD itd. Nie popatrzy na relacje między rodziną E8000 i takie głupoty wygaduje. Testy kart graficznych są tak przygotowane by procesor miał w nich najmniejsze znaczenie - specjalnie się tak robi, bo zawsze procka w testach kart graficznych redaktorom brakuje. Wystarczy jednak popatrzeć krytycznie na powyższy wykres by stwiedzić, że pokazuje bzdury z punktu widzenia rzeczywistych różnic między procesorami.
Większość gier to nie 1 minuta rozgrywki, gdzie liczy się albo TYLKO CPU, albo TYLKO GPU. Tak jak w Crysis: jest walka z przeciwnikami, jest i otwarta przestrzeń, którą się podziwia. Trudno żeby karty graficzne testować w tym pierwszym miejscu, zaś procesory w tym drugim. Ale jak widać, niektórzy tak robią.
-
Otóż to! Jest jeszcze jedna sytuacja w której użytkownik po przejściu na szybszą kartę nagle stwierdza że ma za słaby procesor. Wcześniej do gry np. w Crysisa wystarczało mu 25-30 FPS. Teraz ma szybszą grafikę i nagle stwierdził, że bez min 40 FPS nie da rady grać, a że procesor tyle nie wyrabia nmo i nie wyrabiał wcześniej to nagle jest za słaby.Prawda jest gdzieś tam, po środku ;)
Za słaby też nie może byc, bo zbyt zajęty fizyką, czy AI nie będzie miał czasu na przygotowywanie ramek w odpowiednim tempie dla grafy. Przerabiałem to, gdy w krótkim czasie przesiadałem się z X2 3800+ na PDC2140, a potem na E8200
Jednak jeśli dotychczasowy procek starczał do gier, w które gramy ze starą kartą graficzną to raczej będzie starczał z nową. Chodzi oczywście o minimalny fps, zapewniający grywalność, a nie o rekordy w benchach
No chyba, że wyrabiał na styk i niemieliśmy włączonych np. maksymalnych efektów cząsteczkowych. Wtedy, gdy przy nowej grafie zechcemy je włączyć, może się okazać, że się cpu przydławi. Jeśli jednak miał zapas mocy, to nie ma co zmieniać ;)
Bo procesory mozna testować tak:

lub tak:

Kwestia tego czy do testu procesorów użyjemy testu dla procesorów czy testu dla kart graficznych. Ten drugi z reguły jest pozbawiony przeciwników itp.
-
Muszę przyspieszyć ten mój art na temat procków i grafik - może wreszcie przejrzycie na oczy.ok Rafa, tylko Karlusowi zależy na wydajności w grach, a z testu Nvision wynika że między phenomem II, quadami 775 i rodziną icore nie ma wielkiej różnicy w wydajności przy 'użytkowym' graniu, wiem że większość testów 3d procesorów w innych wortalach obywa się na zasadzie niska rozdzielczość i detale, w wyniku czego widać różnicę sięgającą kilkudziesięciu fps miedzy rożnymi prockami, tylko że w normalnej grze np 1920x1200 full detale, różnice między prockami topnieją do kilku klatek na sekundę
Relacje między procesorami na HD 5870 w 1920 x 1200 będą identyczne jak w 1024 x 768 na HD 4830.
Testu jako takiego nie mam zamiaru komentować, bo będzie to źle odebrane, ale wskażę do przemyślenia dwa wykresy:


Dlaczego E7300 jest na drugim wykresie szybszy od E8500? Dwa razy mniej pamięci podręcznej, niższe FSB oraz co najważniejsze sporo niższe taktowanie.
Druga sprawa mocno rzucająca się w oczy to różnica między X4 955, a X3 705. Dlaczego jest większa w wyższej rozdzielczości?
Innych kwiatów nawet się nie próbuję domyślać.
Jakbyś czytał co napisałem wcześniej to byś nie pisał powyższego zdania. Jeśli komuś dotychczas wystarczał procesor klasy Phenom II, to przy HD 5870 nagle nie zacznie go brakować - ale chyba priorytetem jest obrona za wszelką cenę produktu AMD.[...] także może skończmy pier....nie o konieczności zmiany całego zestawu na icore w związku z zakupem karty serii 58xx, bardziej mnie interesuje oc nowych graf a także ewentualna współpraca z 9600gso(physx) pod vistą x64
I owszem są testy w rozdzielczościach użytkowych (na danej karcie graficznej), ale te mało zgrabnie pomijasz.rafa nie każdy liczy superPI i jara się quake 3 zapierniczającym 2000fps w rozdzielczości 640x480 low detail
Po raz kolejny wypada mi zalinkować to: Metody testowania procesorów w grach.
-
Ale wciąż źle rozumisz te proste instrukcje - to co zrobi jakaś tam postać w grze to jest zadanie silnika gry. Procesor jedynie na podstawie obliczeń wykonanych przez silnik gry wskazuje miejsca obiektów na scenie. A więc w obrębie tej "obsługi wielu rdzeni w DX11" nie jest jak błędnie mniemasz obliczanie A.I., a mega proste operacje dotyczące rzeczy które za czasów Kyro (ktoś to pamięta?) PowerVR próbował nieco odciążyć CPU, a tym samym GPU. Ale jakie wtedy były procesory, a jakie dziś. Wtedy była mowa o wartościach rzędu -dziesiąt FPS, a dziś o -set FPSów. Procesor oblicza zadania narzucone przez silnik gry i to on oblicza jakie obiekty i w którym miejscu na scenie 3D będą umieszczone (oczywiście nie wszystko, bo np. geometry shader pozwala na modyfikowanie np. kształtu obiektów bez ingerencji CPU) - jednak to wszystko odbywa się w ramach silnika gry. Zaś przesłanie tego zarysu sceny wraz z potrzebnymi materiałami to jest zadanie które w DX11 ma wykorzystywać wiele rdzeni. Jednak to raptem 1% czasu procesora jaki zwykle potrzeba w czasie normalnego grania z przeciwnikami, fizyką itd.Związek z API będzie taki, że DX 11 rozporządzi 4 rdzeniami (lub więcej) dla prostych instrukcji a silniki gier będą już korzystać z wielordzeniowości dla bardziej zaawansowanych operacji. Mówiąc o wzroście liczby gier wielordzeniowych dla DX11 miałem na myśli radykalny wzrost. Myślę, ze po prostu zdecydowana większość nowych tytułów DX 11 będzie już w pełni wielordzeniowa. Tylko fakt istnienia starych silników i ich ewentualnych przeróbek niskim kosztem może jeszcze uzasadniać produkcję gier dla jednego lub dwóch rdzeni.
Nie spodziewałbym się też jakiegoś ogromnego wysypu gier obsługujących 4 rdzenie. Każdy programista zdaje sobie sprawę jak trudno jest zaprojektować silnik gry by ta wykorzystywała np. 4 rdzenie. Synchronizacja danych, wyników itd. itd. To nie jest render sceny w 3d studio, gdzie mamy z góry określone zadanie - w grzecały czas się coś dzieje, zmienia - i to gracz decyduje o tym co będzie za chwilę.
-
OK, tylko że jeśli to co napisałeś miałoby by działać tak jak piszesz, to WSZYSTKIE gry DX9 / DX10 w kwestii A.I. itd. musiałyby byc jednordzeniowe! A jak wiemy, tak nie jest.Nie cytuje całości bo za długa ale odnoszę się do całej wypowiedzi.
Ogólnie zgadzam się z faktami które podałeś, tylko nei do końca wyciągam takie same wnioski. Sam fakt użycia przez MS w API wielordzeniowego przetwarzania prostych instrukcji. Czyli tego na co API ma wpływ jest jak wyjście dowódcy z okopu machnięcie szablą i okrzyk "do ataku"! Ataku oczywiście na 4 rdzenie. Ilość gier które mając już DX 11 będzie także chciała skorzystać z 4 rdzeni będzie wg mnie większa niż do tej pory. Oczywiście masz rację, że to zależy od samych producentów gier i silników do gier. Prawda, jednak mamy już silniki wielordzeniowe więc teraz należy się przygotować na ich zmasowany atak. W sumie więc mimo, że samo API nie odpowiada za wszystkie funkcje współpracy GPU i CPU to zmiana ta może doprowadzić do masowego wykorzystywania wielordzeniowości w silnikach gier tym bardziej, że do korzystania z niej nie są konieczne karty DX11.
Jasnym jest, że gier DX11 wykorzystujących 4 rdzenie będzie więcej, ale nie będzie to miało kompletnie żadnego związku z funkcjami zawartymi w samym API. Zwykły rozwój będzie tego powodem. Musimy jednak pamiętać, że nawet dziś najbardziej zaawansowane technologicznie gry korzystasją mizernie z DX'a 10 i ponad wszelką wątpliwość są to gry DX 9.0c z kilkoma dodatkowymi efektami DX10. Najlepszym tego przykładem jest Crysis Warhead. Producenci cały czas muszą pisać gry kompatybilne z kartami DX9, bo tych jest wciąż bardzo dużo na rynku. W związku z tym łatwiej jest im zaprojektować grę, która de facto jest grą DX9.0c ale ma kilka dodatkowych efektów (jakieś refleksy itp.) z wyższych środowisk. W związku z tym wciąż uważam, że DX11 w kwestii wielordzeiowości nie wprowadzi nic. A wszelkie postępy będą wynikać po prostu z faktu, że kolejne gry, powstawały w czasach procesorów wielordzeniowych. Napisanie gry korzystającej z tej tajemniczej funkcji DX11 wymagałoby przepisania całego, a przynajmniej sporej części silnika na wersję zgodną z DX9.0c / DX11. Żaden deweloper na to nie pójdzie - chyba, że ATi / nVidia wyłożą tak niebotyczne sumy pieniędzy, że się im to będzie opłacać, ale jak dotychczas takiego przypadku nie widzieliśmy.
-
OK - thx wielkie. Ja jeszcze w takim razie sprawdzę WD'a 1 TB którego mam na stanie.
-
@ wos
Jak jeszcze możesz to spróbuj zrobić kopiowanie w obrębnie tej partycji 30 GB, to mi już wszystko powie. Bo ta duża jest za duża żeby mieć pewność powtarzalności wyników.
Ale wygląda że jest normalnie i tak jak ma być.
-
thx :)
Wystarczy, jeśli zrobisz powtarzalnie test kopiowania jednego pliku w obrębie tej samej partycji (tcmd wystarczy i stoper). Uprzedzam tylko tak jak i poprzednio, że partycja musi być możliwie mała, bo nigdy nie wiesz gdzie plik zostanie zapisany - czy na początku wolnego miejsca na partycji czy na końcu. Właśnie po to wspominałem o małych partycjach.
Także najpierw sprawdź powtarzalność takiego testu.
Może wrzuce kilka wyników dla jasności:
Wynik po lewej jest z Windows 7, zaś po prawej z Windows XP (tylko kopiowanie w obrębie pierwszej partycji):
WD2002FYPS: 44,7 - 49,7
ST32000542AS: 33 - 31,2
Samsung HD154UI: 51,6 - 45,7
WD20EADS: 25 - 37,6 (!!!)
siakieś hitachi 500 GB: 29,9 - 27,6
A więc u wszystkich jest wolniej na XP, tylko nie u WD. I problemu by nie było gdyby nie to, że wydawać by się mogło bardzo szybki dysk WD wypada mizernie i nie jest to winą jego samego, a systemu operacyjnego.
-
I owa analiza wiele nam mówi o spierdzielonych sterownikach ATi pod kątem CrossFire. Popatrzcie na wyniki z GRID'a: wyraźnie widać, że limit CPU to 161 FPS i w obydwu rozdzielczościach zarówno CF z dwóch HD 5850 jak i dwóch HD 5870 zwraca ten niemalże sam wynik. Właśnie stąd wynika sporo lepsze skalowanie się CF w tej grze dwóch HD 5850, względem dwóch HD 5870. Jednak w przypadku Crysisa, gdzie limit CPU na i7 4 GHz wynosi przeszło 85 FPS, karty nie skalują się tak dobrze jak trzeba.Radeon HD 5850 - solo i w duecie
http://www.in4.pl/recenzje.htm?rec_id=563
Apropos dyskusji, która się wywiązała polecam analizę skalowania CF.
Przygotowałem specjalne demko Crysisa w miejscu gdzie limit CPU ma wartości wręcz astronomiczne i czekam aż się odezwie NetCop z In4, albo tutejszy posiadacz tych kart i niech sprawdzi to moje demo. Wtedy będzie wszystko jasne.
-
Dzięki za przeprowadzone testy. Jednak tutaj nie mogę się w żaden sposób odnieść do Twoich wyników, bo jednak dyski 500 GB są kompletnie inne od dysków 1 TB i wyższych. Wiedziałbym cokolwiek dopiero wtedy jakbyś przeprowadził ten sam test zarówno na Windows XP oraz na Windows 7. Jeśli takie coś Ci się uda zrobić to będzie super :)
-
Fire - na początek: kompletnie nie rozumiem Twojej agresji. Chyba, że osoby które proponują wymianę 2-jajowca na 4-rdzeniowca obraziły Twoją matkę czy coś.
A Ty nie oceniaj moich testów na podstawie swoich jakiś wyimaginowanych domysłów, które nie mają pokrycia w rzeczywistości. Już z samego tego co napisałem można było wywnioskować, że bynajmniej nie testuję w jakims super nie wiem jak wymagającym miejscu. Wystarczyło zestawić dwa fakty:Co do Twoich doswiadczen z GTA4 to te mi zupelnie wisza bo ja nie testuje w 1 miejscu , a gram w calosc - kolo 40h i na podstawie prawie 40h gameplayu wyciagam wnioski na temat zasadnosci wymiany na 4 jajowca do tej gry. Slownie jest 1 miejscowka , gdzie 2 jajowiec kleka - most laczacy wyspe 2 z wyspa 3.
Core i7 920 uzyskał w tescie 35,6 FPS oraz: [...]podczas zadymy potrafiłem zajechać i7 2,66 GHz do 18 FPS (w GTA IV),[...]
... by stwierdzić ponad wszelką wątpliwość, że można znaleźć miejsca bardziej wymagające od mojego testu. Dodatkowo powiem Ci więcej. Od mojego miejsca testowego są przynajmniej dwa miejsca bardziej wymagające (a to tylko świadczy że przeciwienie do tego co insynuujesz nie skupiam się na jakimś tam wybranym miejscu): torowisko ponad ziemią jeszcze na pierwszej wyspie oraz właśnie wspomniany przez Ciebie most między wyspami. Nie wiem jak jest na innych wypach, bo miałem czas szukać miejsc tylko początkowo dostępnym obszarze, ale z relacji osób które grały wynika, że tam wcale nie jest łatwiej dla CPU.
Jasne, że mogą pokazac coś zupełnie innego - po pierwsze niech pokażą. A po drugie jak już to zrobią to wciąż przewaga 4-rdzeniowca będzie równie wyraźna jak u mnie w testach.Rownie dobrze moge napisac bys nie przytaczal swoich testow , ktore sa...z jakiegos 1 miejsca , bo inni moga przytoczyc swoje miejsca testowe i pokazac zupelnie co innego.
Napisałem wyżej że nie tyczy się to mojego wg Ciebie super wybranego miejsca, a całej gry. Pomijam już kwestię tego, że na Radeonie na Windowsie XP jest zdecydowanie większe obciążenie procesora, co tylko potęguje znaczenie testu wydajności w tej grze.Jesli mowisz o komfortowym graniu to DOPISZ , ze tego MOZE NIE BYC w scisle okreslonej sytacji w 1 miejscu bo przekreslanie 2 rdzeniowcow z tego powodu to smiech , to zart , ktory powoduje panike na forach i zmusza ludzi do wymiany kompow bo przeciez "tak napisali" , a pozniej czyta sie non stop "bez I7 nie podchodz".
A ja byłem jedną z tych osób, która tak bardzo Ci odradzała zakup Q8200 zamiast posiadanego przez Ciebie E8200. Wciąż twierdzę że byłaby to głupota z Twojej strony, ale faktom zaprzeczać nie można - na 4-rdzeniowcach w tej grze jest zdecydowanie płynniej.Na marginesie - GTA4 dal mi doskonaly przyklad na to , ze wymiana na Quada , doplata , zabawy z odsprzedaza nie maja w ogole najmniejszego sensu przy E8xxx. Czemu? Bo w 1 miejscu mi spadl FPS. Balem sie tego jak to bedzie chodzic. Przyjemnie sie rozczarowalem.
Już Ci udowodniłem wyżej jak bardzo zawiść przesłania Ci zdrowy rozsądek. Procesor który w moim teście uzyskał niemal 36 FPS w owej "zadymie" uzyskał 18 FPS, co tylko dowodzi że to nie jest moje miejsce testowe.Sam to napisales , ja tylko wybolduje bo nie ma sensu pisac tego samego. Jesli "nie zalapales" to TY podczas zadymy = jakis tam Twoj test , ktorego w grze moze nawet nie byc bo np. ja nie robie sztucznej zadymy w stylu "30 gliniarzy i 20 radiowozow potraktowanych granatnikiem". Z Crysisiem jest o tyle prosta rzecz , ze wystarczy 1 plansza i BRAK zadymy - Onslaught , tam PDC polegl calkowicie. Nie byl w stanie zapewnic plynnosci na tak rozleglej mapce. W GTA4 sytuacja wyglada inaczej , srednia jest miedzy 30-50 (no AA). Jesli mi gdzies spadnie w 1 miejscu to nie ma dramatu , co innego , jak w przypadku PDC i Crysisa , gdzie nie mam spadku w 1 miejscu , a nieustajacy "slow-mo" przez CALOSC planszy. Juz pomijam to , ze w GTA4 wystarczy zjechac z cieniowaniem byc mial jeszcze wiekszy freamelimit dla slabszych kart.
Mało zgrabnie pominąłeś moje pytanie dotyczące ustawień graficznych w GTA IV. Ciekawe dlaczego...
-
@ ODOO.
W zasadzie to musisz mieć do tego możliwie małą partycję w stylu 10- 20 GB. Chodzi o to, żebyś zawsze "trafiał" z plikiem w obszar o zbliżonej wydajności. Nie wchodzi w grę kopiowanie pliku w obrębie jakiejś bardzo dużej partycji - chyba że masz ją pełną w powiedzmy 95% i do tego w 100% zdefragmentowaną.
Ja robię tak: zakładam 3 partycje: jedna jest na początku, druga na środku, zaś ostatnia jest na końcu. Pomiędzy nimi jest oczywiście dodatkowa partycja, by to rozdzielić - wiadomo. Mając szybkie źródło (SSD) kopiuję z niego plik na zadany dysk twardy i mierzę czas (zwyczajnie - total commanderem). Restartuję komputer i ten plik który skopiowałem (najlepiej jakieś spore ISO) kopiuję do innego katalogu w obrębie tej samej partycji bądź na inną partycję. Niezależnie od celu / źródła (w obrębie tego samego dysku rzecz jasna) Windows 7 oferuje wyższą wydajność, ale nie na dyskach WD.
Podam jeszcze modele dysków WD, które sprawdzałem:
WD20EADS
WD2002FYPS
- Poprzednia
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- Dalej
- Strona 2 z 55

Phenom II X6 | X4 | DDR2/DDR3 | AM2+/AM3 | Thuban | Zosma
w AMD
Opublikowano
Wiem co widzę :)Swoją drogą - takiej właśnie odpowiedzi spodziewałem się w tym wątku.