Skocz do zawartości

focus_

Stały użytkownik
  • Liczba zawartości

    1391
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    1

Zawartość dodana przez focus_

  1. focus_

    Ati Radeon Hd58xx

    No tak, bo istotniejsze jest że w rozdzielczości xxxx X xxxx jedna karta ma 11 FPS, zaś druga 12 od tego co pokazałem w teście. Rozdzielczości są dobierane na zasadzie płynności jaką karty uzyskują w danej grze. Co do rozdzielczości wyższych niż 1920 x 1200, czyli typu 2560 X xxxx to jak popatrzyłem na statystyki to takich użytkowników jest jakieś 0,8 promila całości. Po prostu praktycznie nikt takich rozdzielczości nie używa - jedynie jacyś profesjonalni graficy, ale nie gracze. Co do fotki nagiej karty - nie wystarczyło czasu na zmachanie tego, ale postaram się dorobić jak karta mi wpadnie ponownie w ręce.
  2. focus_

    Ati Radeon Hd58xx

    Ech Fire... Przyjmij do wiadomości, że to jest błąd sterownika. I najpewniej w następnej lub jeszcze następnej edycji sterownika będzie podobnie na ATi jak i nVidii. Zrozum, że ten błąd to wyjątkowa sytuacja, która się zdarza również w nVidii (bodaj sterowniki serii 180 w WiCu np.). Mówiąc "do szybszej karty nie potrzeba szybszego procesora" mam na myśli karty jednego producenta. To tak jak się mówi, że do (z pewnym przybliżeniem oczywiście) mocniejszego silnika trzeba lać więcej benzyny. Ale jeśli będziesz chciał porównać 100-konną benzynę i 150-konnego diesla, to nagle się okaże że wcale nie trzeba lać więcej paliwa. Ale to chyba wprowadzanie kolejnej zmiennej, co tylko utrudnia wyjaśnienie / zbadanie problemu, prawda? Odbiję piłeczkę. Zmieniam HD 4870 na GTX'a 285 (niewątpliwie ta druga jest szybsza) i nagle wystarcza mi nawet słabszy procesor (akurat do NFS Shift'a oczywiście). I tak - do HD 4870 wystarczy Twoim zdaniem słabszy procesor niż do HD 5870, tak? Przecież napisałem to w artykule a Ty jeszcze raz to powtarzasz. Jeśli mam spadki do 30-35 FPS na Radeonie przy i7 920 @ 4GHz to ponad wszelka wątpliwość jest to poziom niepłynny. Co do nVidii w Crysie: 35 vs. 40 FPS na i7 4 GHz w teście czysto procesorowym (liczenie fizyki, A.I.) I pewnym fenomenem jest to, że w teście "baza" (inny niż zaprezentowany tutaj w artykule) GF'y zatrzymują się na wartości około 42 FPS (po prostu więcej nie idzie zrobić), zaś Radeon zrobił mi 61 FPS i później skończyły się mi rozdzielczości (mniejszych nie miałem). Dodam, że rok temu sytuacja była praktycznie odwrotna. Na Core 2 Duo E6750 @ 3,5 GHz GF kończył się mi na około 39 FPS, zaś Radeony nie wyrabiały więcej jak 30-31 FPS. Ale takie animozje to błędy sterowników i nie należy się nimi podpierać przy dyskusji na temat CPU i GPU. Dalej nie pojmujesz, że na przykładzie NFS Shift'a i słabego GF'a w porównaniu do mocnego Radeona nie można rozważać kwestii zależności wydajności CPU od GPU i odwrotnie? Zrobiłem prosty test w którym porównałem wydajność na dwóch ustawieniach jednego procesora z dwiema kartami graficznymi (tego samego producenta): Core i7 4 GHz: GTX-285: 35,6 GTS-250: 35,5 Core i7 2,4 GHz GTX-285: 24,8 GTS-250: 24,8 Drugi test na tym samym sprzęcie: Core i7 4 GHz: GTX-285: 43,4 GTS-250: 43,2 Core i7 2,4 GHz GTX-285: 29,1 GTS-250: 29,1 I teraz Radeon HD 4890: Core i7 4GHz: 1 test: 39,5 2 test: 48,5 Core i7 2,4 GHz 1 test: 26,9 2 test: 31,6 Specjalnie pomieszałem, żebyś sobie to zapisał na kartce i przeanalizował. Jak przeliczysz to wyjdzie co ma wyjść. Inna gra - Clear Sky i7 @ 4 GHz GTS-250: 78,8 GTX-285: 79,1 HD 4890: 63 i7 @ 2,4 GHz GTS-250: 51,5 GTX-285: 51,6 HD 4890: 42,2 Dalej masz zamiar wyciągać wnioski na temat zależności CPU od GPU porównując karty z różnego przedziału wydajnościowego różnych producentów? Mówiłem - najpewniej jest to problem sterownika, który zostanie poprawiony najpóźniej w listopadzie. Dodatkowy wykres miałem dorzucić dziś, ale karty nie dostałem na ten jeden eksperyment i mam ją dostać jutro żeby zmachać dodatkowy test (po prostu nie starczyło mi czasu wcześniej i kartę musiałem odesłać i czekałem na ponowne jej zwolnienie). Analogicznie - nie wieszałem psów na nvidii za sterowniki 190.38 BETA że się nie da grać w FEAR, bo na wersji WHQL o tym samym numerze działały już poprawnie. Poczekamy na nowe sterowniki - choćby kolejne bety. Jeśli problem nie ustąpi to się to dosadniej napisze. Tak czy owak dodatkowy wykres się pojawi najpewniej jutro (czyli dziś). Aha - powyższe wyniki pochodzą z moich testów, które sobie "po cichu" robię w czasie jak testuję kolejne karty graficzne. W kilku grach mam przygotowane miejsca testowe zależne od CPU i sprawdzam wykorzystanie procesora przez sterownik. Jak na dłoni widzę, które sterowniki co poprawiają i który producent lepiej sobie radzi z obciążeniem procesora. Fire - po co edytujesz swojego posta już po tym jak ja odpisałem na niego? Tylko wprowadza zamęt. W kwestii sterownika dla nVidii. Sprawa jest bardzo prosta (rozmawiałem na ten temat dziś z sidebandem). Karty graficzne testuje się na sterownikach oficjalnych! Koniec, kropka. Chyba, że nie są takowe dostępne dla karty którą testujemy, to korzysta się z jedynych dostępnych. Niestety dla HD 5870 nie było innego wyjścia, bo nie miałem zamiaru czekać z recenzją jeszcze 2 tygodni, żeby móc napisać: tak korzystam z oficjalnych 9.10 WHQL. Nie może mnie interesować że nVidia wypuściła nie wiem ile tam wersji beta sterowników do swoich kart. Wchodzę na stronę i widzę, że najnowsze OFICJALNE to 190.62, więc ich używam. Nawet wiedząc, że 191.03 będą niebawem też oficjalne, nie mogę z nich skorzystać. Powód podałem wyżej na przykładzie gry FEAR. Ta sam numerek sterownika, a jednak inna jest jego rzeczywista wersja (zresztą to nie tylko FEAR'a ale i np. WiC'a) i uzyskuje inne wyniki.
  3. focus_

    Ati Radeon Hd58xx

    Czytałbyś czasem co napisałem w artykule ;) Pozwolę się zacytować: Sterowniki ATi w tej grze dają mocno ciała - po prostu generują około 2-krotnie większe obciążenie procesora. Dodatkowo mówiąc fragment, który cytowałeś mam na myśli ogólną sytuację, bo to że nvidia genereruje nieco większe obciążenie CPU w Crysie, zaś ATi w NFS Shift, to są wyjątki, których się nie bierze w dyskusji na temat zależności CPU od GPU i odwrotnie. Inna sprawa, że ten sam proc który nie dał rady w NFS Shift Radeonowi HD 5870, nie da rady również na Radeonie HD 4850 czy jeszcze niższym. Więc Twój "wytyk" był trochę nie na miejscu ;) :razz: EDIT Zresztą jak uda się mi jakoś przygotować powtarzalny test z przeciwnikami, to zobaczysz pięknie ładnie, że HD 5870 uzyskuje ten sam FPS w: 1920 x 1200 1680 x 1050 1280 x 1024 1024 x 768 Mało tego. Na Radeonie HD 4870 wartości dziwnym trafem będą niemal identyczne. Muszę tłumaczyć co to oznacza? Na GF'ach będzie identycznie, tyle że będziemy operować nie na wartościach z zakresu 30-35 FPS, a z zakresu 60-65 FPS. Cały czas mówię o wartościach jakie miałem właśnie na Core i7 @ 4GHz. Boję się sprawdzać co będzie na "defie". OK - w takim razie wyjaśnij mi na czym ma polegać ta "niemożność niewyciśnięcia maxa z HD 5870 przez i7 4GHz". Jak ja nie lubię jak ktoś edytuje kilkadziesiąt minut później swojego posta jak już pod nim jest kilka nowych. Myślisz że ktoś wraca do czytania poprzednich postów, czy przypadkiem coś się w nich nie zmieniło?
  4. focus_

    Ati Radeon Hd58xx

    Temat wraca jak bumerang co chwila. Core i7 @ 4 GHz wystarczy do tej karty, tak samo jak i słabsze procesory. Analogicznie dany procesor jeśli nie wystarczy do HD 5870, to i do HD 4850 nie wystarczy. Core i7 @ 4 GHz w zasadzie nie wystarcza tylko do Army II z tego co zaobserwowałem. Co do sterowników. RC7 są w jednym gorsze od RC6: na tych drugich H.A.W.X. działa poprawnie, zaś na RC7 jak i pozostałych nie.
  5. hmmm - może to być prawdziwe, ale mój test teoretycznie powinien wykazać prawdziwość tego o ile tak jest. Bo właśnie przygotowuję mini-test na temat wydajności PCI-E w prockach Intela - porównanie Bloomfielda do Lynnfielda w tej kwestii. Tyle, że nie jest prosto znaleźć grę która reaguje nawet na 5 MHz wyższej częstotliwości PCI-E :) Niemniej jesli to co mówisz miałoby być prawdziwe, to Cor ei7 860 z wyłączonym HT miałby się okazać szybszy od Core i5 750. Tyle, że jednocześnie test musi być niezależny od wydajności procesora jako takiego, a korzystać z pełnego pasma PCI-E. To nie będzie łatwe, ale zobaczymy.
  6. Fałszywe tezy przedstawiasz Ty. Nawet nie potrafisz się odnieść do moich wcześniejszych postów. Non-stop zarzucasz brak kompetencji, stronniczość, niewiedzę, podczas gdy to właśnie Ty się nią wykazujesz. Przeprowadziłem i pokazałem nie jeden i nie dwa testy na różnych procesorach i różnych kartach graficznych w różnych rozdzielczościach i za każdym razem wychodzi to samo: relacje procesorów się nie zmieniają wraz z rozdzielczością (ewentualnie wyniki się spłaszczają o czym pisałem wcześniej). Dalsza dyskusja nie ma sensu, skoro twierdzisz że ramkę na monitor wypuszcza procesor, a nie karta graficzna.
  7. To zależy do czego używawasz kompa. Jeśli do gier to moim zdaniem HT jest zupełnie zbędne. Jeśli jednak masz zamiar coś renderować, czy kompresować filmy częściej niż od święta to warto. Dodatkowo 860 ma wyżej taktowany mostek i masz większe pole manewru jeśli chodzi o mnożniki pamięci RAM (masz dostępny x6, którego w i5 750 nie ma). Pamięci będą pasować i pracować dobrze - sprawdzałem na 4 zestawach (OCZ, Patriot Viper x2 oraz GoodRAM).
  8. A ja napisałem pół kodu pierwszego Far Cry i 60% Crysisa. Który jednocześnie przeczy Twoim bzdurom, bo niezależnie od tego co procesor liczy powinien się był zupełnie zapchać powyżej rozdzielczości 800 x 600, a się nie zapchał. Zamiast odpowiedzieć na mojego wcześniejszego posta argumentami (których jak widać nie masz), zarzucasz mi stronniczość. Problem w tym, że nie masz na to ŻADNYCH dowodów. A i temu powyższemu prosta logika przeczy. Bo gdybym wybrał rozdzielczość odpowiednią dla E5200 to - zgodnie z Twoją "teorią" - ta rozdzielczość już nie faworyzowałaby np. E8200 (3 razy więcej L2). A jak wszyscy widzą stosuję tą samą rozdzielczość DLA WSZYSTKICH procesorów w danym teście. Dodatkowo 1024 x 768 stosuję tylko w Crysis Warhead, zaś w innych testach 1280 x 1024 z AA-x4 lub bez.
  9. No tak... I to (z recki X2 550) zdanie jest tego najlepszym dowodem: "[...] zwycięstwo w grach. A to było naprawdę imponujące. Phenom z reguły wyprzedzał nie tylko droższego od siebie Core 2 Duo E7400, ale często okazywał się lepszy od modelu E7500, lub któregoś z procesorów z rodziny E8000, a to już zasługuje na bardzo dużą uwagę." Pokaż mi palcem gdzie staję po tej samej stronie przecząc swoim wynikom testów. Chłopie - Ty chyba faktycznie na głowę upadłeś. Jeśli u mnie Core i5 był szybszy od Phenoma o 10%, zaś u innych o 15%, a Ty nadal twierdzisz że u mnie w testach Intel wypada lepiej to trzeba być skrajnym fanatykiem by coś takiego pisać. Pier... głupoty i wciskasz kit czytelnikom, którzy po tobie wygadują, że testy na egieldzie sa pro-intel, podczas gdy zimana matematyczna kalkulacja WYKAZUJE, że jest zupełnie odwrotnie. Ostatnio przeczytałem, że wrzechświat można opisać tylko matematycznymi wzorami. Bowiem antymaterii nie da się zobaczyć, ale matematyka wykazuje jej obecność. To samo jest z poziomem ... maxymiliego. Matematyka ją wykazuje, ale on sam jej nie dostrzega. Na głupotę ludzką nie ma rady. Jeśli ktoś kupił 8 GB RAMu do zestawu do któego pakuje się pamięci w systemie: 3 GB; 6 GB lub 12 GB, to nie jest to wina Intela, tylko kupującego. Fałszywego, nie fałszywego. Non stop jestem informowany od 3 sklepów na temat modowalności procesorów X2 oraz X3. Ostatnie informacje jasno wskazują, że się nic nie moduje.
  10. Jak widać, nie potrafisz czytać nawet napisanych wierszy, a co dopiero tekstu między wierszami. Dla Twojej wiadomości: zapomniałeś jeszcze o Far Cry 2. Cały czas czekam na odpowiedź na to: Bo coś nie łakomisz się na odpowiedź.
  11. Jakbyś nie był fanatykiem AMD to byś nie wciskał w każdym poście, że: "Phenom II ma rację bytu", że "Phenom II to świetny procesor". Nie twierdzę, że nie, ale wciskanie tego w każdym poście nie świadczy dobrze o Tobie. Kolejna rzecz: cały czas czekam na odpowiedź w związku z Twoimi wyimaginowanymi zarzutami wobec mnie że jakoby moje testy pokazywały większą przewagę Intela niż inne serwisy. Udowodniłem, że piszesz bzdury. Najwyższy czas przeprosić. Nie twierdzę, że Phenom II X2 550 jest zły - w końcu dałem mu nagrodę bo to świetny procesor, ale nie wciskaj że się odblokouje, bo obecnie żaden procek AMD się nie odblokowuje - tylko jakieś wybrane serie. Nie żebym Cię po raz kolejny strofował, ale LGA1156 udowadnia, że 3 kości pamięci w LGA1366 to przerost formy nad treścią. Czekaj czekaj. Czy to właśnie nie fanatycy AMD twierdzili, że: "Kupuj Phenoma II X4 bo dziś wystarczy do gier a w przyszłości jak wyjdą gry na 4 rdzenie, to wówczas zobaczysz że dobrze zrobiłeś kupując Phenoma zamiast C2D"? Teraz nagle jak Intel zaoferował szybsze, rozwojowe 4 rdzenie i do tego w dobrej cenie, to nagle się okazuje że 4 rdzenie nie są już potrzebne w grach i Phenom II X2 wystarczy. Cóż za "zbieg okoliczności". Gry cofają się w rozwoju.
  12. No gdyby nie "delikatna" różnica polegająca na tym, że końcową ramkę na ekran wypuszcza karta graficzna a nie procesor, to byłbym zdolny Ci jeszcze uwierzyć. Najlepszym dowodem na to co mówię jest fakt, że stare karty PCI miały ograniczenia związane z wyświetlaną rozdzielczością, co było związane właśnie z małą ilością pamięci RAM jaką dysponowały. O ile dobrze pamiętam karta 2 MB była w stanie wyświetlić max 1280 x 1024 (oczywiście nie w 32-bitach). Brakuje Ci elementarnej wiedzy na temat procesu tworzenia obrazu w grach. Nie wiesz co dokładnie dostarcza procesor do karty graficznej i co końcowo karta graficzna wyświetla na ekranie. Dodatkowym FAKTEM zaprzeczającym Twojej teorii jest to, że nie obserwujemy drastycznego spadku wydajności po przekroczeniu okreslonej rozdzielczości na procesorze który ma mało pamięci podręcznej. Każdy doskonale wie, że w przypadku gdy dane przestają się mieścić w pamięci podręcznej procesora, to zaczyna się drop wydajności, jak np. tutaj: Widać jak na dłoni ogromny spadek wydajności po zmniejszeniu pojemności pamięci podręcznej w Phenomach II: 6 MB vs. 4 MB. Tak samo Phenomy I z 2 MB L3 notują nieporównywalnie gorsze wyniki względem Phenomów II. To samo obserwujemy na przykładzie Core 2 Duo. Wystarczy porównać wynik E8200 do E7300. Jeśli zaraz ktoś mi wyskoczy, że tam było inne FSB to proszę popatrzeć na Q9450 oraz Q9400. Jeśli więc w grach miałoby być tak jak mówi "dwaip", to E5200 (w końcu 2 MB L2) dostawałby ogromnej wręcz zadyszki w rozdzielczościach wyższych niż 800 x 600. Patrząc na poniższy wykres (jeden z wielu jemu podobnych) bynajmniej tego nie obserwujemy. Procesory zachowują relacje między sobą wraz ze wzrostem rozdzielczości - ewentualnie różnice się spłaszczają ze względu na kartę graficzną, ktorej zaczyna coraz bardziej brakować. Nie obserwujemy nigdzie by E5200 nagle dostawał zadyszki, a musiałby dostawać w każdym teście w rozdzielczości 1024 x 768 i wyższej. Podaję jeszcze raz ten wykres w grze która jest silnie zależna od pojemności pamięci podręcznej procesora: Jakimś dziwnym sposobem - zupełnie przeciwnie do tego co mówisz (a łyżka na to: niemożliwe) - E5200 nie zyskuje względem E8200 czy jakiegokolwiek innego procesora z rodziny E8000. A wg Ciebie powinno zyskiwać. Innymi słowy - panie dwaIP czas wrócić do lektury książek, bo teoria niespecjalnie pasuje do FAKTÓW.
  13. Jak tak bardzo się podpierasz tym wykresem to wytłumacz mi co lepszego ma Phenom II X4 965 wzgledem Phenoma II x4 955, że ten pierwszy jest w minimalnych szybszy od tego drugiego o 18%, zas różnica zegarowa wynosi 6%. Procki AMD przyspieszają szybciej niż wynika to z częstotliwości? 3-krotnie szybciej?
  14. No właśnie :) tyle że QPI to w tych prockach nie ma. Swoją drogą mam inną ciekawostkę. Nie wiem czy ktoś próbował przyrównać zdjęcia Lynnfielda do Bloomfielda. Ja próbowałem i okazuje się, że obszar kontrolera pamięci RAM jest IDENTYCZNY w obydwu procesorach. Lynnfield jedyne co ma mniej to QPI.
  15. Jak dwa do wyboru? Ja miałem mnożnik zablokowany zupełnie. x16 i koniec.
  16. A właśnie - rozumiem że w sklepówkach też sa zablokowane mnożniki NB, tak? Bo w przypadku zeszłorocznej premiery Core i7 nie było to takie oczywiste.
  17. Co za bzdura. Ty chyba sam nie wierzysz w to co napisałeś. Od kiedy to gry (czy nawet pojedyncza ramka) zajmują w pamięci 2 czy 6 MB? Więcej zajmowały już 10 lat temu. Dziś jedna ramka zajmuje od 50 do nawet 200 MB i owszem zwiększa się ilość zajmowanej pamięci wraz ze wzrostem rozdzielczości, ale w pamięci karty graficznej, a nie pamięci głównej, czy tym bardziej procesora. Jeśli nie wiesz to nie ma osobnych tekstur dla każdej rozdzielczości - ładowane sa zawsze te same tekstury i są "szyte na miarę" pod dany tryb. Gdyby tak nie było, to gra zajmowałaby w pamięci w 800 x 600 równo 1/4 z tego ile zajmuje w 1600 x 1200, a tak nie jest bo różnice są relatywnie kosmetyczne (raptem kilka procent). Do tego pisząc, że wraz ze wzrostem rozdzielczości zyskują procesory z mniejszą ilością pamięci podręcznej przeczysz podstawowym prawom logiki. Zresztą udowodniłem że tak nie jest przeprowadzając stosowne testy. Ty swoją teorię (nieprawdziwą zresztą) zawieszasz w powietrzu i mamy Ci wierzyć? Jeśli nie rozróżniasz testów na ustawieniach DOMYŚLNYCH od testów na ustawieniach O/C, to wszystko jest dla Ciebie odwracaniem kota ogonem. Ty chyba jesteś faktycznie ślepy, albo Twoje zielone okulary nie przepuszczają fal o innej niż określona długości. Przecież wykazałem na poprzedniej stronie, że właśnie u mnie Core i5 750 wykazał się najmniejszą przewagą względem procka AMD. WSZYSTKIE inne vortale wykazały większą różnicę, niż ja a Ty dalej swoje. :blink: Tia - żeby wykazać słabość tej funkcji - nawet 7-8% wzrostu wydajności bez podniesienia taktowania procesora to oczywiście nic. Co do tego podniesionego HT to jest to około 1-2% w grach. Celem testu BEMP było pokazanie możliwości tej funkcji - tylko tyle i aż tyle. No tak - dziwnym trafem w crysisa grają tylko Ci którzy mają dobry sprzęt. Niemniej sądzę, że w GTA IV czy Armę II grasz też z super wysoką płynnością.
  18. Może wstrzymajmy się z rozmową aż wreszcie przeczytasz ten artykuł. Bo wypowiadasz się już tutaj dłużej niż byś potrzbeował czasu na przeczytanie tego artykułu - a ja tylko powtarzam to co jest w nim napisane, może nawet obszerniej. Popatrz: jak jest test kart graficznych i wychodzi, że GTS-250 jest porównywalnie wydajny jak GTX-285 to nie znajdziesz osoby, która by napisała że tak jest w rzeczywistości. Wniosek jest oczywisty: miejsce testowe jest zbyt zależne od procesora i / lub procesor użyty w platformie testowej jest za słaby do testowania kart graficznych. W przypadku procesorów identyczne wyniki skrajnie róznych procesorów przechodzą płazem... Ba! są jeszcze pochwalane! Ja używam w testach 9800 GTX'a (tak akurat padło - nie mam dostępu do GTX'a 285 na rok czasu) i testuję w rozdzielczościach w jakich ta karta wyciąga względną płynność w danych grach. W Crysis Warhead na max detalach jest to 1024 x 768, w HL2 już 1280 x 1024 AA-x4. Testuję w rozdzielczościach dostępnych dla tej karty graficznej. Wcześniej pokazałem że zmienia na GTX'a 285 i wyższą rozdzielczość nie zmienia NIC w relacjach procesorów!
  19. I własnie dlatego testy procesorów powinny być w grach - bo w jednej lepszym będzie procesor A, a w drugiej procesor B. Przykładowo Phenomy bardzo dobrze wypadaja w grach na silniku Source, ale w takim Crysisie już niekoniecznie. A nawet przy tym samym taktowaniu są istotne różnice w wydajności. Przykład (Q9400 oraz Q9450): STALKER CS: 33,1 do 35,8 Crysis Warhead: 29,1 do 32
  20. jeszcze szybszym będzie E5200 + HD 4870 X2. Mówię już po raz trzeci - jeśli wolniejszy AMD zrówna się z szybszym Intelem, to i wolniejszy Intel zrówna się z szybszym AMD. najwyższy czas to przyjąć do wiadomości. Z całą pewnością nie wg mojej teorii, a Twojej. Dorbe miejsce testowe wykaże się tym, że niezależnie od rozdzielczości będzie ten sam wynik (podobny). Złe miejsce testowe to takie w którym wynik spada wraz ze wzrostem rozdzielczości (podlinkowane wykresy). Może dlatego, że E8600 w takim GTA IV ma 25,7 FPS, zaś tańszy od niego Q9550 32,3 FPS? Zaś w stalkerze CS E8600 ma 43,3 FPS, zaś Q9550 już tylko 38,1. Ale to przecież jest bez znaczenia...
  21. Generalnie nie ma co rozmawiać dop[óki tego nei przeczytasz, bo to wiele wyjaśnia. Jeśli wychodzi, że E5200 jest szybszy od i7 975, to (poza super wyjątkowymi sytuacjami jak np. SCDA) znaczy że ktoś źle robi testy. Jeśli jednak komuś wychodzi, że E5200 jest szybszy od E8600 to już kategorycznie wskazuje na błąd testującego. Jak przeczytasz to skreslisz co tutaj napisałeś. Nie twierdzę, że jest sens wymiany Twojego procesora (gdybym go miał podkręconego to zmieniłbym tylko wtedy gdybym nałogowo grał w GTA IV lub ARMę II), bo właśnie do gier jest to super świetna maszynka - lepsza od niemal każdego 4-rdzeniowca obecnego na rynku w cenie do 1100 złotych. Ale chciałem napisać coś innego: Jaka będzie różnica jeśli ja przetestuję procesory w 1024 x 768 na 9800 GTX'ie względem tego jakbym to zrobił na GTX'ie 285 w 1600 x 1200? 9800 GTX uzyskuje mniej więcej tyle samo FPS w 1024 x 768, co GTX 285 w 1600 x 1200. Jeślibym posiadał własnego GTX'a 285 testowałbym w wyższych rozdzielczościach, jednak nie miałoby to kompletnie wpływu na wynik. Popatrz na to: GTX 285 i 1920 x 1440 AA-x4: E8600 uzyskuje 43,4 FPS, zaś E8400 39,4. Jest więc szybszy o 10% A teraz 9800 GTX i 1280 x 1024 AA-OFF: E8600: 46,3 E8400: 42,5 Różnica: 9% To samo można sobie przeliczyć w przypadku E8600 oraz Q9550. W jednym 15, a drugim 14% różnicy. Co więc zmienia ta rozdzielczość? Tylko i wyłącznie samopoczucie czytającego artykuł, bo dobrze przygotowany test będzie niezależny od grafiki.
  22. Ty masz rzeczywiście jakieś duże problemy nie tylko ze zrozumieniem logicznych zależności, ale i przeczytaniem kogoś ze zrozumienim. Powyższe wykresy pokazują tylko, jak ktoś źle dobrał miejsce testowe - tylko tyle i aż tyle. Ja też mogę pokazac taki wykres (już go pokazywałem): A oto wykres z DOBREGO miejsca w TEJ SAMEJ GRZE: Te same procesory, te same ustawienia, ta sama gra - ale jakże inne wyniki. Szkoda tylko, że dla Ciebie powyższe jest za trudne.
  23. Nie można mówić, że ta gra jest zależna od procesora, a ta już od grafiki. Oczywiście są gry które nieobciążają procesora w znaczącym stopniu, a są i takie które wybitnie na nim siedzą. Przykładem jest tutaj GTA IV, które siedzi mocno na procesorze i bardzo trudno jest w niej zajechać grafikę bez posiadania naprawdę mocnego CPU. Niemniej Crysis, zresztą podobnie jak Far Cry (ten pierwszy - w końcu to samo studio), jest naprawdę majstersztykiem jeśli chodzi o testowanie czegokolwiek w komputerze. Ktoś kto posiedzi trochę nad jedną jak i druga grą bez problemu przygotuje pełen zestaw miejsc testowych. Jedne bedą dobre dla procesora, inne dla karty graficznej. Logicznym jest że w każdej grze w przypadku gdy walczymy z kilkoma przeciwnikami i jak do tego dojdzie jeszcze jakaś fizyka to procesor będzie pracował na najwyższych obrotach. Jeśli jednak ktoś testuje PROCESORY w miejscu, gdzie nie ma przeciwników, to już nie moja wina że później wychodzą mu różne wyniki w różnych rozdzielczościach i wyniki wraz ze wzrostem rozdzielczości się spłaszczają. No ale jak widać fanboye AMD grają w Crysisa bez przeciwników, bo wtedy ich procesory są tak samo wydajne jak Intele :blink: Oczywiście, że można pokazać test w miejscu gdzie niezależnie od procesora dana karta graficzna będzie uzyskiwać ten sam wynik. Ale Crysis (jedna z najjbardziej wymagających od procesora gier) jest akurat taki, że tam naprawdę jest potrzebny mocny CPU. Zresztą można to podpatrzeć w moich testach. 3364236[/snapback] to co bylo testowane przy okazji testu i5 i i7 jak najbardziej sie nada, albo choc niektore aplikacje. Co do gier to tez zestaw byl ok mysle, choc ja tutaj mam mala wiedze co jest dobre do czego. Patrze z reguly na gry ktore maja malo fpsow bo wtedy wyniki wydaja mi sie bardziej "mowiace prawde" :) Czyli wszystko w czym testuję? OK :) Niemniej byłoby mi łatwiej jakbyś wskazał aplikacje oraz gry, ktore Cię interesują, bo nie wierzę że wyniki np. w 3D Studio Maxie czy May'i Cię interesują :)
  24. Nawet nie rozumiesz do końca co napisał Piterro, a się wypowiadasz. Ale jak widzę argumentów brak z Twojej strony - więc zaczyna się pyskówka. Napisałem, że kij którym próbujesz uderzyć ma dwa końce - ale widać że nawet tego nie łapiesz. Udowodnij, że robię źle - jakież to proste.
  25. @ Piterro. Zapytam po raz któryś tam: czytałeś to: Metody testowania procesorów w grach? Jeśli jest dobre miejsce testowe to procesr uzyska ten sam wynik w 800 x 600, co w 1920 x 1440. Żaden problem. Jako kontrargument na Twojego posta podaję inny wykres: Tylko, że jedyne co on udowadnia to to, że test któego wyniki są na powyższym wykresie jest TOTALNIE zależny od karty graficznej, a nie jest w ogóle zależny od procesora. Przeczytam DOKŁADNIE co Ci podlinkowałem i w razie wątpliwości pisz.
×
×
  • Dodaj nową pozycję...