Skocz do zawartości

focus_

Stały użytkownik
  • Postów

    1391
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    1

Odpowiedzi opublikowane przez focus_

  1. Nędzny test, za niskie rozdzielczości do takich kart. Jak nie macie odpowiedniego sprzętu to nie róbcie testów.

    No tak, bo istotniejsze jest że w rozdzielczości xxxx X xxxx jedna karta ma 11 FPS, zaś druga 12 od tego co pokazałem w teście. Rozdzielczości są dobierane na zasadzie płynności jaką karty uzyskują w danej grze.

     

    Co do rozdzielczości wyższych niż 1920 x 1200, czyli typu 2560 X xxxx to jak popatrzyłem na statystyki to takich użytkowników jest jakieś 0,8 promila całości. Po prostu praktycznie nikt takich rozdzielczości nie używa - jedynie jacyś profesjonalni graficy, ale nie gracze.

     

    Co do fotki nagiej karty - nie wystarczyło czasu na zmachanie tego, ale postaram się dorobić jak karta mi wpadnie ponownie w ręce.

  2. Ech Fire...

     

    Czytalem , znam. Napisales wyzej cos wiec to cos zacytowalem bo ja nie twierdze , ze w tej grze jest zasada "jak Ci nie styka do 5870 to i nie wystarczy do 4850" bo tutaj styka komus do 8800GTSa , a nie styka do 4850.

    Przyjmij do wiadomości, że to jest błąd sterownika. I najpewniej w następnej lub jeszcze następnej edycji sterownika będzie podobnie na ATi jak i nVidii. Zrozum, że ten błąd to wyjątkowa sytuacja, która się zdarza również w nVidii (bodaj sterowniki serii 180 w WiCu np.). Mówiąc "do szybszej karty nie potrzeba szybszego procesora" mam na myśli karty jednego producenta. To tak jak się mówi, że do (z pewnym przybliżeniem oczywiście) mocniejszego silnika trzeba lać więcej benzyny. Ale jeśli będziesz chciał porównać 100-konną benzynę i 150-konnego diesla, to nagle się okaże że wcale nie trzeba lać więcej paliwa. Ale to chyba wprowadzanie kolejnej zmiennej, co tylko utrudnia wyjaśnienie / zbadanie problemu, prawda?

     

     

    Ekhem, moj przytyk jest na miejscu bo wystarczy wsadzic inna karte co zrobil Side. Na 4850 grac nie mogl - rzeczone obciazenie CPU , a na slabszym GTSie nie ma problemow. Jest na miejscu jak najbardziej.

    Odbiję piłeczkę. Zmieniam HD 4870 na GTX'a 285 (niewątpliwie ta druga jest szybsza) i nagle wystarcza mi nawet słabszy procesor (akurat do NFS Shift'a oczywiście).

     

     

    I co z tego? To , ze do mocnej karty musze i tak wymienic cepa by w to pograc? Juz w ogole nie komentuje tego co bedzie z 4870 , ktory teoretycznie jest 2x slabszy. O ile 5870 moze pokazac jeszcze w Shifcie dobry FPS bo jest szybka karta to taki 4870 dostaje po prostu lanie = bez mocnego proca nie podchodz do tej gry.

    I tak - do HD 4870 wystarczy Twoim zdaniem słabszy procesor niż do HD 5870, tak?

     

     

     

    Czyli na wartosciach , ktore zapewniaja calkowity komfort grania majac SREDNI procesor , a nie I7 4GHz. Zobac sobie wartosci minimalne , ktore beda wlasnie dawaly komfort grania , a nie stricte sam usredniny FPS. Skoro u Sulac0 na 2GHZ i7 dostal 20 fps to znaczy , ze bez oc , z ta karta , w tej grze przy 15 przeciwnikach masz ponizej progu plynnosci i to znacznie.

     

    Wlasnie , to jeszcze sprawdz to na cepe innej klasy. Zobaczysz , ze sie nie da grac wiec w tej grze Radek po prostu odpada. Piszesz , ze w Crysise mocniej nV obciaza cepa? Nigy sie z tym nie spotkalem , ale zakladajac , ze masz racje - i tak mozna pograc.

    Przecież napisałem to w artykule a Ty jeszcze raz to powtarzasz. Jeśli mam spadki do 30-35 FPS na Radeonie przy i7 920 @ 4GHz to ponad wszelka wątpliwość jest to poziom niepłynny.

     

     

    Co do nVidii w Crysie:

    35 vs. 40 FPS na i7 4 GHz w teście czysto procesorowym (liczenie fizyki, A.I.)

    I pewnym fenomenem jest to, że w teście "baza" (inny niż zaprezentowany tutaj w artykule) GF'y zatrzymują się na wartości około 42 FPS (po prostu więcej nie idzie zrobić), zaś Radeon zrobił mi 61 FPS i później skończyły się mi rozdzielczości (mniejszych nie miałem). Dodam, że rok temu sytuacja była praktycznie odwrotna. Na Core 2 Duo E6750 @ 3,5 GHz GF kończył się mi na około 39 FPS, zaś Radeony nie wyrabiały więcej jak 30-31 FPS.

     

    Ale takie animozje to błędy sterowników i nie należy się nimi podpierać przy dyskusji na temat CPU i GPU.

     

     

     

    Dalej nie pojmujesz, że na przykładzie NFS Shift'a i słabego GF'a w porównaniu do mocnego Radeona nie można rozważać kwestii zależności wydajności CPU od GPU i odwrotnie?

     

    Zrobiłem prosty test w którym porównałem wydajność na dwóch ustawieniach jednego procesora z dwiema kartami graficznymi (tego samego producenta):

    Core i7 4 GHz:

    GTX-285: 35,6

    GTS-250: 35,5

     

    Core i7 2,4 GHz

    GTX-285: 24,8

    GTS-250: 24,8

     

    Drugi test na tym samym sprzęcie:

     

    Core i7 4 GHz:

    GTX-285: 43,4

    GTS-250: 43,2

     

    Core i7 2,4 GHz

    GTX-285: 29,1

    GTS-250: 29,1

     

     

     

    I teraz Radeon HD 4890:

    Core i7 4GHz:

    1 test: 39,5

    2 test: 48,5

     

    Core i7 2,4 GHz

    1 test: 26,9

    2 test: 31,6

     

     

    Specjalnie pomieszałem, żebyś sobie to zapisał na kartce i przeanalizował. Jak przeliczysz to wyjdzie co ma wyjść.

     

     

     

    Inna gra - Clear Sky

    i7 @ 4 GHz

    GTS-250: 78,8

    GTX-285: 79,1

    HD 4890: 63

     

    i7 @ 2,4 GHz

    GTS-250: 51,5

    GTX-285: 51,6

    HD 4890: 42,2

     

    Dalej masz zamiar wyciągać wnioski na temat zależności CPU od GPU porównując karty z różnego przedziału wydajnościowego różnych producentów?

     

     

     

     

    Dodam cos jeszcze :

     

     

    Dla wielu ludzi wydajnosc na kazdym ATI w tej grze bedzie problemem.

     

    Niby o tym wspomniales , ale to co wyboldowalem znacznie bardziej wryje sie pod 'beret" niz to , ze "jakies tam jest gorsze obciazenie" , ktore wiekszosci pewnie nic nie powie do momentu , az nie odpala tej gry i sie nie zdziwia.

     

    W ogole po cholere komus zachwyt nad marketingowym skokiem AZ o 70% skoro wyniki Sulac0 sa wyzej? Ten tekst mowi o zabojczej wydajnosci tej kary i to ludzie odbiora (nie to , ze jest jakis tam problem , o ktorym delikatnie wspomniano ,a ktory nie jest opisany szerzej czyli "nie podchodz z ATI bez I7 i oc do tego") , co w przypadku tej gry mija sie po czesci z faktami bo wydajnosc jej MOCO zalezy od swietnego CEPA , ktory na ATI odgrywa kluczowa tutaj role , a dodatkowo tego trzeba KRECIC.

     

    Uwazam , ze bardzo lagodnie tutaj oceniles ten problem - zabojcza wyrozumialosc.

    Mówiłem - najpewniej jest to problem sterownika, który zostanie poprawiony najpóźniej w listopadzie. Dodatkowy wykres miałem dorzucić dziś, ale karty nie dostałem na ten jeden eksperyment i mam ją dostać jutro żeby zmachać dodatkowy test (po prostu nie starczyło mi czasu wcześniej i kartę musiałem odesłać i czekałem na ponowne jej zwolnienie).

     

    Analogicznie - nie wieszałem psów na nvidii za sterowniki 190.38 BETA że się nie da grać w FEAR, bo na wersji WHQL o tym samym numerze działały już poprawnie. Poczekamy na nowe sterowniki - choćby kolejne bety. Jeśli problem nie ustąpi to się to dosadniej napisze. Tak czy owak dodatkowy wykres się pojawi najpewniej jutro (czyli dziś).

     

     

     

    Aha - powyższe wyniki pochodzą z moich testów, które sobie "po cichu" robię w czasie jak testuję kolejne karty graficzne. W kilku grach mam przygotowane miejsca testowe zależne od CPU i sprawdzam wykorzystanie procesora przez sterownik. Jak na dłoni widzę, które sterowniki co poprawiają i który producent lepiej sobie radzi z obciążeniem procesora.

     

     

     

    Fire - po co edytujesz swojego posta już po tym jak ja odpisałem na niego? Tylko wprowadza zamęt.

     

    W kwestii sterownika dla nVidii. Sprawa jest bardzo prosta (rozmawiałem na ten temat dziś z sidebandem). Karty graficzne testuje się na sterownikach oficjalnych! Koniec, kropka. Chyba, że nie są takowe dostępne dla karty którą testujemy, to korzysta się z jedynych dostępnych. Niestety dla HD 5870 nie było innego wyjścia, bo nie miałem zamiaru czekać z recenzją jeszcze 2 tygodni, żeby móc napisać: tak korzystam z oficjalnych 9.10 WHQL. Nie może mnie interesować że nVidia wypuściła nie wiem ile tam wersji beta sterowników do swoich kart. Wchodzę na stronę i widzę, że najnowsze OFICJALNE to 190.62, więc ich używam. Nawet wiedząc, że 191.03 będą niebawem też oficjalne, nie mogę z nich skorzystać. Powód podałem wyżej na przykładzie gry FEAR. Ta sam numerek sterownika, a jednak inna jest jego rzeczywista wersja (zresztą to nie tylko FEAR'a ale i np. WiC'a) i uzyskuje inne wyniki.

  3. Nic z tego. Poczytaj sobie co pisza ludzie o tym jak chodzi sam Shift na kartach nV , a co jest z kartami ATI. Akurat w przypadku tej gry procesor , ktory styka do bezproblemowej rozgrywki na nV nie oznacza procesora , ktory styka do rozgrywki z karta ATI.

     

    Zreszta , co ja mowie - zapytaj sie najlepiej Sidebanda. Ma 8800GTsa , ktory jest slabszy niz jego "niedawny" 4850. Niech Ci opowie jak sie gralo przy jego cepie na nV , a jak na ATI.

    Czytałbyś czasem co napisałem w artykule ;)

     

    Pozwolę się zacytować:

     

    Problemem jednak jest to, że relacje między kartami są zupełnie inne w przypadku gdy test przeprowadzamy z przeciwnikami (większość gry to jazda z przeciwnikami), a bez nich. Okazuje się, że wszystkie karty ATi na naszej platformie testowej (bardzo mocnej, trzeba przyznać) na starcie wyścigu (jak i często w jego trakcie – to oczywiście zależy od ilości przeciwników obecnych na ekranie) mamy około 35-40 FPS niezależnie od rozdzielczości, podczas gdy na kartach nVidii mamy nie mniej niż 60 FPS.

    Sterowniki ATi w tej grze dają mocno ciała - po prostu generują około 2-krotnie większe obciążenie procesora.

     

     

    Dodatkowo mówiąc fragment, który cytowałeś mam na myśli ogólną sytuację, bo to że nvidia genereruje nieco większe obciążenie CPU w Crysie, zaś ATi w NFS Shift, to są wyjątki, których się nie bierze w dyskusji na temat zależności CPU od GPU i odwrotnie. Inna sprawa, że ten sam proc który nie dał rady w NFS Shift Radeonowi HD 5870, nie da rady również na Radeonie HD 4850 czy jeszcze niższym. Więc Twój "wytyk" był trochę nie na miejscu ;) :razz:

     

    EDIT

    Zresztą jak uda się mi jakoś przygotować powtarzalny test z przeciwnikami, to zobaczysz pięknie ładnie, że HD 5870 uzyskuje ten sam FPS w:

    1920 x 1200

    1680 x 1050

    1280 x 1024

    1024 x 768

     

    Mało tego. Na Radeonie HD 4870 wartości dziwnym trafem będą niemal identyczne.

     

    Muszę tłumaczyć co to oznacza?

     

     

    Na GF'ach będzie identycznie, tyle że będziemy operować nie na wartościach z zakresu 30-35 FPS, a z zakresu 60-65 FPS.

     

    Cały czas mówię o wartościach jakie miałem właśnie na Core i7 @ 4GHz. Boję się sprawdzać co będzie na "defie".

     

     

     

     

     

     

    @focus - ja nie mowie, ze 4ghz na i7 nie stykna ale maxa z grafiki nie wycisna

    OK - w takim razie wyjaśnij mi na czym ma polegać ta "niemożność niewyciśnięcia maxa z HD 5870 przez i7 4GHz".

     

    Jak ja nie lubię jak ktoś edytuje kilkadziesiąt minut później swojego posta jak już pod nim jest kilka nowych. Myślisz że ktoś wraca do czytania poprzednich postów, czy przypadkiem coś się w nich nie zmieniło?

  4. generalnie wydaje mi sie, ze nawet z i7 @ 4ghz+ nie wycisnie sie maxa z tej grafiki :)

    Temat wraca jak bumerang co chwila.

     

    Core i7 @ 4 GHz wystarczy do tej karty, tak samo jak i słabsze procesory. Analogicznie dany procesor jeśli nie wystarczy do HD 5870, to i do HD 4850 nie wystarczy.

     

    Core i7 @ 4 GHz w zasadzie nie wystarcza tylko do Army II z tego co zaobserwowałem.

     

     

     

    Co do sterowników. RC7 są w jednym gorsze od RC6: na tych drugich H.A.W.X. działa poprawnie, zaś na RC7 jak i pozostałych nie.

  5. focus - nie wiem ile w tym prawdy, ale ponoć Lynnfield korzysta z wewnętrznej magistrali QPI do komunikacji z kontrolerem PCI-E, a jej mnożnik wynosi x16 dla Core i 5 i x18 dla Core i7, czyli tyle samo co Uncore.

    hmmm - może to być prawdziwe, ale mój test teoretycznie powinien wykazać prawdziwość tego o ile tak jest. Bo właśnie przygotowuję mini-test na temat wydajności PCI-E w prockach Intela - porównanie Bloomfielda do Lynnfielda w tej kwestii. Tyle, że nie jest prosto znaleźć grę która reaguje nawet na 5 MHz wyższej częstotliwości PCI-E :)

     

    Niemniej jesli to co mówisz miałoby być prawdziwe, to Cor ei7 860 z wyłączonym HT miałby się okazać szybszy od Core i5 750. Tyle, że jednocześnie test musi być niezależny od wydajności procesora jako takiego, a korzystać z pełnego pasma PCI-E. To nie będzie łatwe, ale zobaczymy.

  6. Źle przeprowadzony test może być efektem braku odpowiedniego sprzetu, niekompetencji i.t.p. niekoniecznie stronniczości.

    O braku sprzetu wspomniałeś ale dokładasz do braku sprzętu niekompetencję połączoną z agresją skierowaną

    w kierunku zawodowca wskazującego na przyczynę niedoskonałości platformy testowej.

    Ja tylko podważam błędną obiegową opinię że do testów wystarczy słaba karta graficzna i obniżona rozdzielczość.

    Dokładnie opisałem dlaczego, w skrócie można nazwać to brakiem skalowania rozmiaru pamięci podręcznej po zmianie rozdzielczości.

    Do wykazania zależności konieczne są testy z dwoma CPU różnie taktowanymi i różnym cache oraz dwoma kartami graficznymi

    o różnej wydajności w wielu grach a nie jeden płaski wykres przedstawiony jako argument do podparcia fałszywej tezy.

    Fałszywe tezy przedstawiasz Ty. Nawet nie potrafisz się odnieść do moich wcześniejszych postów. Non-stop zarzucasz brak kompetencji, stronniczość, niewiedzę, podczas gdy to właśnie Ty się nią wykazujesz.

     

    Przeprowadziłem i pokazałem nie jeden i nie dwa testy na różnych procesorach i różnych kartach graficznych w różnych rozdzielczościach i za każdym razem wychodzi to samo: relacje procesorów się nie zmieniają wraz z rozdzielczością (ewentualnie wyniki się spłaszczają o czym pisałem wcześniej).

     

    Dalsza dyskusja nie ma sensu, skoro twierdzisz że ramkę na monitor wypuszcza procesor, a nie karta graficzna.

  7. Dokładnie !!

    Mój Core i7-920 już poszedł pod młotek i teraz mam pytanie:

    - czy warto dopłacać do i7-860 względem i5-750 ??

    To zależy do czego używawasz kompa. Jeśli do gier to moim zdaniem HT jest zupełnie zbędne. Jeśli jednak masz zamiar coś renderować, czy kompresować filmy częściej niż od święta to warto. Dodatkowo 860 ma wyżej taktowany mostek i masz większe pole manewru jeśli chodzi o mnożniki pamięci RAM (masz dostępny x6, którego w i5 750 nie ma).

     

    - czy ramy triple channel z i7 będą działały bezproblemowo na i5/i7 jak dwukanałowe (oczywiście bez jednej kości) ??

    Pamięci będą pasować i pracować dobrze - sprawdzałem na 4 zestawach (OCZ, Patriot Viper x2 oraz GoodRAM).
  8. Tak dużo wiesz aby oceniać lub nawet szacować wiedzę zawodowca ? (programuję zawodowo od 1985 r.)

    A ja napisałem pół kodu pierwszego Far Cry i 60% Crysisa.

     

    Przytoczyłeś płaski wykres z gry/konfiguracji w której FPS nie zmniejsza się po zwiększaniu rozdzielczości co oznacza że różnica

    FPS dla różnych CPU jest niemal w 100% efektem wydajności CPU w obliczeniach fizyki.

    Który jednocześnie przeczy Twoim bzdurom, bo niezależnie od tego co procesor liczy powinien się był zupełnie zapchać powyżej rozdzielczości 800 x 600, a się nie zapchał.

     

    Dobrze wiem że dobranie rozdzielczości ekranu tak aby pamięć ekranu zmieściła się w pamięci podręcznej CPU to stara

    sztuczka recenzentów podrasowujących wykresy dla jakiegoś CPU na potrzeby marketingu , sztuczka której nie ma szns dostrzec laik i

    jednocześnie nie ma szans na nabranie doświadczonego programisty.

    Zamiast odpowiedzieć na mojego wcześniejszego posta argumentami (których jak widać nie masz), zarzucasz mi stronniczość. Problem w tym, że nie masz na to ŻADNYCH dowodów.

     

    A i temu powyższemu prosta logika przeczy. Bo gdybym wybrał rozdzielczość odpowiednią dla E5200 to - zgodnie z Twoją "teorią" - ta rozdzielczość już nie faworyzowałaby np. E8200 (3 razy więcej L2). A jak wszyscy widzą stosuję tą samą rozdzielczość DLA WSZYSTKICH procesorów w danym teście. Dodatkowo 1024 x 768 stosuję tylko w Crysis Warhead, zaś w innych testach 1280 x 1024 z AA-x4 lub bez.

  9. O tobie nie świadczy tez dobrze, że mimo tak dużej wiedzy co test stajesz po tej samej stronie mimo, że faktyczne osiągi różnych procesorów nie zawsze potwierdzają twoje teorie.

    No tak... I to (z recki X2 550) zdanie jest tego najlepszym dowodem:

     

    "[...] zwycięstwo w grach. A to było naprawdę imponujące. Phenom z reguły wyprzedzał nie tylko droższego od siebie Core 2 Duo E7400, ale często okazywał się lepszy od modelu E7500, lub któregoś z procesorów z rodziny E8000, a to już zasługuje na bardzo dużą uwagę."

     

    Pokaż mi palcem gdzie staję po tej samej stronie przecząc swoim wynikom testów.

     

    Obejrzałem twoje testy, i testy na anandtechu. Od razu rzuciło mi się w oczy że u ciebie wyniki są korzystniejsze dla i5, choć i tam wypadł dobrze. Nie wiem z czego wynika takie wrażenie, być może sposób prezentacji czy dobór testów. Ale moje odczucie choć subiektywne jest faktem. Sprawdziłem to potem porównując z podanymi innymi testami. Wrażenie miałem takie samo. U ciebie test i5 sprawia wrażenie korzystniejszego dla i5 niż gdzie indziej.

     

    Jeżeli po podsumowaniu wszystkich testów średni wynik wyjdzie ci gorszy dla i5 niż średni wynik z innych portali o ugruntowanej pozycji, to i tak nie odwołam tego co napisałem. Nie ponieważ wrażenie jakie wywołuje twój test jest faktem.

    Chłopie - Ty chyba faktycznie na głowę upadłeś. Jeśli u mnie Core i5 był szybszy od Phenoma o 10%, zaś u innych o 15%, a Ty nadal twierdzisz że u mnie w testach Intel wypada lepiej to trzeba być skrajnym fanatykiem by coś takiego pisać. Pier... głupoty i wciskasz kit czytelnikom, którzy po tobie wygadują, że testy na egieldzie sa pro-intel, podczas gdy zimana matematyczna kalkulacja WYKAZUJE, że jest zupełnie odwrotnie.

     

    Ostatnio przeczytałem, że wrzechświat można opisać tylko matematycznymi wzorami. Bowiem antymaterii nie da się zobaczyć, ale matematyka wykazuje jej obecność. To samo jest z poziomem ... maxymiliego. Matematyka ją wykazuje, ale on sam jej nie dostrzega.

     

     

    Owszem, tylko po co u licha chłopakowi te dodatkowe 2GB szybkiej ddr3? 200zł w błoto, nie zaprzeczysz. A takie błędy to nie tylko naciąganie ze strony sklepu, ale także efekt hura propagandy, że intel ever the best.

    No jest dobry, ale najlepsza jest logika i wyważona ocena za każdym razem.

    Na głupotę ludzką nie ma rady. Jeśli ktoś kupił 8 GB RAMu do zestawu do któego pakuje się pamięci w systemie: 3 GB; 6 GB lub 12 GB, to nie jest to wina Intela, tylko kupującego.

     

     

    No i na podstawie fałszywego założenia że 545 x2 nie da się nigdy odblokować snujesz już wizję... ja poczytam przed zakupem co i jak zapytam znajomych i wtedy zdecyduję, czy warto ryzykować dla ACC czy lepiej dodać jeszcze 100 czy 200zł i kupić pewne x4.

    Fałszywego, nie fałszywego. Non stop jestem informowany od 3 sklepów na temat modowalności procesorów X2 oraz X3. Ostatnie informacje jasno wskazują, że się nic nie moduje.
  10. lzasiegnij swoich wlasnych testow i zobacz gta 4, Lost Planet ktore korzystaja z 4 rdzeni co jest lepsze PII czy c2d ? buhahah

    Jak widać, nie potrafisz czytać nawet napisanych wierszy, a co dopiero tekstu między wierszami. Dla Twojej wiadomości: zapomniałeś jeszcze o Far Cry 2.

     

     

    Cały czas czekam na odpowiedź na to:

     

    Jak tak bardzo się podpierasz tym wykresem to wytłumacz mi co lepszego ma Phenom II X4 965 wzgledem Phenoma II x4 955, że ten pierwszy jest w minimalnych szybszy od tego drugiego o 18%, zas różnica zegarowa wynosi 6%. Procki AMD przyspieszają szybciej niż wynika to z częstotliwości? 3-krotnie szybciej?

    Bo coś nie łakomisz się na odpowiedź.

  11. Phenom 2 ma o tyle rację bytu, że jest tańszy i to wszystko, wydajnością bije też sporo procków Intela ale na pewno nie i7 jak i5 szczególnie te nowe. Wszystkie testy to zgodnie wykazały, niektóre mniej inne bardziej, ale wszystkie w jedną stronę. Mnie to przekonuje.

    Jakbyś nie był fanatykiem AMD to byś nie wciskał w każdym poście, że: "Phenom II ma rację bytu", że "Phenom II to świetny procesor". Nie twierdzę, że nie, ale wciskanie tego w każdym poście nie świadczy dobrze o Tobie.

     

    Kolejna rzecz: cały czas czekam na odpowiedź w związku z Twoimi wyimaginowanymi zarzutami wobec mnie że jakoby moje testy pokazywały większą przewagę Intela niż inne serwisy. Udowodniłem, że piszesz bzdury. Najwyższy czas przeprosić.

     

     

    Tylko cena pozostaje dośc mocnym argumentem, bo skoro można pheńka 545 x2 kupić za ok 300zł a wydajnościowo po OC jest lepszy od wszystkich inteli do 550zł i jeszcze ma mozliwość odblokowania dwóch rdzeni to w swojej klasie AMd ma mocne pozycje. High end jednak całkowicie przypadnie intelowi przynajmniej do następnego rozdania.

    Nie twierdzę, że Phenom II X2 550 jest zły - w końcu dałem mu nagrodę bo to świetny procesor, ale nie wciskaj że się odblokouje, bo obecnie żaden procek AMD się nie odblokowuje - tylko jakieś wybrane serie.

     

     

    @Focus - ja nie jestem fanatykiem AMD, mi zależy po prostu na dobrej jakości za niewielką kasę. Rozmawiałem wczoraj z chłopakiem, kupił sobie trochę wcześniej, zanim mi powiedział nowego kompa. i7 950 8GB ramu. Nikt mu nawet w sklepie nie powiedział, że do i7 powinien dobrać ram w triple chanel. Łącznie na ramie stracił jakieś 200zł bo ma niepotrzebną kość a na procku 1000zł bo ma to samo co 920.

    Nie żebym Cię po raz kolejny strofował, ale LGA1156 udowadnia, że 3 kości pamięci w LGA1366 to przerost formy nad treścią.

     

    Marnowanie kasy to nie ja. Ja wybiorę phenoma 2 i zadowolę się nieco niższym framerate, poczekam pół roku, ale za to zapłacę za niego do 500zł. W tej cenie nie kupił bym nawet dobrego dwurdzeniowca (E8400) u Intela.

    I powiedz mi kiedy on odczuje różnicę w FPS wobec mojej zaplanowanej konfiguracji? Za trzy lata kiedy gry będą w końcu tak wymagać? Wtedy ten sprzęt będzie wart 1/6 swojej obecnej ceny albo i to nie.

    Czekaj czekaj. Czy to właśnie nie fanatycy AMD twierdzili, że: "Kupuj Phenoma II X4 bo dziś wystarczy do gier a w przyszłości jak wyjdą gry na 4 rdzenie, to wówczas zobaczysz że dobrze zrobiłeś kupując Phenoma zamiast C2D"? Teraz nagle jak Intel zaoferował szybsze, rozwojowe 4 rdzenie i do tego w dobrej cenie, to nagle się okazuje że 4 rdzenie nie są już potrzebne w grach i Phenom II X2 wystarczy. Cóż za "zbieg okoliczności". Gry cofają się w rozwoju.
  12. Pamięć ekranu 1920*1200 zajmuje ponad 8 MB (1920*1200*4 )/(1024*1024).

    Pamięć ekranu 800x600 zajmuje mniej niż 2 MB a pamięć ekranu 1024*768 równo 3 MB.

    Niw wypisuj zatem bajek dla naiwnych że wszystkie rozdzielczości wymagają operowania na takich samych rozmiarach danych przez CPU.

    No gdyby nie "delikatna" różnica polegająca na tym, że końcową ramkę na ekran wypuszcza karta graficzna a nie procesor, to byłbym zdolny Ci jeszcze uwierzyć. Najlepszym dowodem na to co mówię jest fakt, że stare karty PCI miały ograniczenia związane z wyświetlaną rozdzielczością, co było związane właśnie z małą ilością pamięci RAM jaką dysponowały. O ile dobrze pamiętam karta 2 MB była w stanie wyświetlić max 1280 x 1024 (oczywiście nie w 32-bitach).

     

    Brakuje Ci elementarnej wiedzy na temat procesu tworzenia obrazu w grach. Nie wiesz co dokładnie dostarcza procesor do karty graficznej i co końcowo karta graficzna wyświetla na ekranie.

     

    Dodatkowym FAKTEM zaprzeczającym Twojej teorii jest to, że nie obserwujemy drastycznego spadku wydajności po przekroczeniu okreslonej rozdzielczości na procesorze który ma mało pamięci podręcznej. Każdy doskonale wie, że w przypadku gdy dane przestają się mieścić w pamięci podręcznej procesora, to zaczyna się drop wydajności, jak np. tutaj:

     

    Dołączona grafika

     

    Widać jak na dłoni ogromny spadek wydajności po zmniejszeniu pojemności pamięci podręcznej w Phenomach II: 6 MB vs. 4 MB. Tak samo Phenomy I z 2 MB L3 notują nieporównywalnie gorsze wyniki względem Phenomów II. To samo obserwujemy na przykładzie Core 2 Duo. Wystarczy porównać wynik E8200 do E7300. Jeśli zaraz ktoś mi wyskoczy, że tam było inne FSB to proszę popatrzeć na Q9450 oraz Q9400.

     

    Jeśli więc w grach miałoby być tak jak mówi "dwaip", to E5200 (w końcu 2 MB L2) dostawałby ogromnej wręcz zadyszki w rozdzielczościach wyższych niż 800 x 600. Patrząc na poniższy wykres (jeden z wielu jemu podobnych) bynajmniej tego nie obserwujemy. Procesory zachowują relacje między sobą wraz ze wzrostem rozdzielczości - ewentualnie różnice się spłaszczają ze względu na kartę graficzną, ktorej zaczyna coraz bardziej brakować. Nie obserwujemy nigdzie by E5200 nagle dostawał zadyszki, a musiałby dostawać w każdym teście w rozdzielczości 1024 x 768 i wyższej.

     

     

    Podaję jeszcze raz ten wykres w grze która jest silnie zależna od pojemności pamięci podręcznej procesora:

     

    Dołączona grafika

     

    Jakimś dziwnym sposobem - zupełnie przeciwnie do tego co mówisz (a łyżka na to: niemożliwe) - E5200 nie zyskuje względem E8200 czy jakiegokolwiek innego procesora z rodziny E8000. A wg Ciebie powinno zyskiwać.

     

     

     

    Innymi słowy - panie dwaIP czas wrócić do lektury książek, bo teoria niespecjalnie pasuje do FAKTÓW.

  13. w minimalnych nie ale w srednich tak

    Jak tak bardzo się podpierasz tym wykresem to wytłumacz mi co lepszego ma Phenom II X4 965 wzgledem Phenoma II x4 955, że ten pierwszy jest w minimalnych szybszy od tego drugiego o 18%, zas różnica zegarowa wynosi 6%. Procki AMD przyspieszają szybciej niż wynika to z częstotliwości? 3-krotnie szybciej?
  14. Sorry, pomyliło mi się z QPI :wink: . W Asusie nie ma opcji NB, pewnie właśnie dlatego, że nie ma wyboru mnożnika...

    No właśnie :) tyle że QPI to w tych prockach nie ma.

     

    Swoją drogą mam inną ciekawostkę. Nie wiem czy ktoś próbował przyrównać zdjęcia Lynnfielda do Bloomfielda. Ja próbowałem i okazuje się, że obszar kontrolera pamięci RAM jest IDENTYCZNY w obydwu procesorach. Lynnfield jedyne co ma mniej to QPI.

  15. Zmienia a przyczyna leży w pamięci cache CPU istotnej dla wydajności w grach.

    Po zmianie rozdzielczości na większą i zamianie karty graficznej na szybszą nie zostaną zachowane proporcje wyników

    pomiędy CPU a nawet może dojść do zmiany kolejności CPU.

    Przykładowo jeśli zestawisz E5300 @3.33 GHz (10x 333 aby FSB było identyczne) z E8200 2.66 GHz przy 800x600

    to E8200 nadrobi łatwo w wielu grach braki w taktowaniu przy pomocy cache.

    Po zwiększeniu rozdzielczości na tyle aby dane zaczeły znacząco wyłazić poza cache CPU przewagę może uzyskać CPU wyżej takltowane z

    mniejszyą lub wolniejszą pamięcią podręczną bo wpływ cache na wynik będzie mniejszy.

    Dlatego testowanie w grach CPU ze słabą kartą i zaniżoną rozdzielczością może być mylące i nie zastąpi pewności jaką daje

    szybsza karta w stosowanych praktycznie rozdzielczościach.

    Co za bzdura. Ty chyba sam nie wierzysz w to co napisałeś. Od kiedy to gry (czy nawet pojedyncza ramka) zajmują w pamięci 2 czy 6 MB? Więcej zajmowały już 10 lat temu. Dziś jedna ramka zajmuje od 50 do nawet 200 MB i owszem zwiększa się ilość zajmowanej pamięci wraz ze wzrostem rozdzielczości, ale w pamięci karty graficznej, a nie pamięci głównej, czy tym bardziej procesora. Jeśli nie wiesz to nie ma osobnych tekstur dla każdej rozdzielczości - ładowane sa zawsze te same tekstury i są "szyte na miarę" pod dany tryb. Gdyby tak nie było, to gra zajmowałaby w pamięci w 800 x 600 równo 1/4 z tego ile zajmuje w 1600 x 1200, a tak nie jest bo różnice są relatywnie kosmetyczne (raptem kilka procent). Do tego pisząc, że wraz ze wzrostem rozdzielczości zyskują procesory z mniejszą ilością pamięci podręcznej przeczysz podstawowym prawom logiki.

     

    Zresztą udowodniłem że tak nie jest przeprowadzając stosowne testy. Ty swoją teorię (nieprawdziwą zresztą) zawieszasz w powietrzu i mamy Ci wierzyć?

     

    Dopiero co super argumentem za procesorem E7400 E5200 intela było to, że ma większy skok wydajności od natywnej do max OC w porównaniu do 550 x2 (test 550 i komentarze na forum egieldy). Jest to faktycznie dobry argument, ale na pewno nie jedyny. To dlaczego teraz odwracasz kota ogonem?

    Jeśli nie rozróżniasz testów na ustawieniach DOMYŚLNYCH od testów na ustawieniach O/C, to wszystko jest dla Ciebie odwracaniem kota ogonem.

     

    Szczerze kłótnię w tym temacie uważam za bezsensu. Nowe procki intela są dobre a to czy 5% bardziej dobre czy 5% mniej dobre nie ma większego znaczenia. Trzeba by zresztą niezłego profesora by sprawdzić dlaczego twoje wyniki były korzystniejsze dla Intela niż na innych portalach, nie po raz pierwszy zresztą. Ja tego nie umiem udowodnić ani wytłumaczyć więc uznaję że to przypadek.

    Ty chyba jesteś faktycznie ślepy, albo Twoje zielone okulary nie przepuszczają fal o innej niż określona długości. Przecież wykazałem na poprzedniej stronie, że właśnie u mnie Core i5 750 wykazał się najmniejszą przewagą względem procka AMD. WSZYSTKIE inne vortale wykazały większą różnicę, niż ja a Ty dalej swoje. :blink:

     

    Co do trybu BEMP ile to dało wydajności żeby na to zwracać uwagę? Chyba raczej dałeś ten test by wykazać słabość tej funkcji więc nie ściemniaj, że pushowałeś phenoma :D Zresztą bardzo dobrze zrobiłeś, wykazuj słabe strony AMD, jeszcze bardziej bym się cieszył, jak byś wykazywał słabe strony wszystkich dostępnych na rynku procesorów równie zaciekle.

    Tia - żeby wykazać słabość tej funkcji - nawet 7-8% wzrostu wydajności bez podniesienia taktowania procesora to oczywiście nic. Co do tego podniesionego HT to jest to około 1-2% w grach. Celem testu BEMP było pokazanie możliwości tej funkcji - tylko tyle i aż tyle.

     

    Tylko dziwi mnie jedno. Czemu ja mogę sobie pograć bez problemu w prawie wszystkie gry z rynku na 1680*1050 (nie gram w crysisa) a w testach szczególnie focusa podkręcony phenom x4 nie spełnia granicy płynności? Kurcze, ja mam zdechłą sukę a nie grafikę i procka dwie generacje do tyłu. I działa.

    No tak - dziwnym trafem w crysisa grają tylko Ci którzy mają dobry sprzęt.

    Niemniej sądzę, że w GTA IV czy Armę II grasz też z super wysoką płynnością.

  16. ilear, dzięki za PW. Co do słów focusa to nie można Mu nie przyznać racjii.

    Rozumiem, że testowanie w niskich rozdzielczościach zapobiega sytuacji w której karta graficzna staje się wąskim gardłem. I dzięki temu można ukazać różnice między procesorami.

    Może wstrzymajmy się z rozmową aż wreszcie przeczytasz ten artykuł. Bo wypowiadasz się już tutaj dłużej niż byś potrzbeował czasu na przeczytanie tego artykułu - a ja tylko powtarzam to co jest w nim napisane, może nawet obszerniej.

     

    Jednak w tym rozumowaniu jest pewna luka. Otóż, wg. Waszych stwierdzeń przy karcie powiedzmy GTS 250 i rozrdzielczości 800x600 różnica między E5200 a i7 920 to 40 % (wartości zmyślone ale ukazujące o co chodzi). A przy 1920 różnice się zmniejszą ponieważ karta staje wąskim gardłem. I tutaj przyznaję Wam rację. Ale z drugiej strony... Co z tego że się tak dzieje. Wiem, że gdyby porównać te procesory na karcie graficznej 10x wydajniejszej i rozdzielczości 1920x1200 to różnice by z powrotem wróciły do stanu jak przy rozdziałce 800x600 i GTS250. Ale przecież takiej karty nie ma i nie będzie, więc nie ma sensu się bawić w takie porównania... Po prostu test powinno się zrobić przy najwydajniejszej obecnie karcie graficznej, która w miarę możliwości nie będzie wąskim gardłem i testować w rozdzielczościach w których się gra i nie testować w "odpowiednio" wybranych miejscach tylko normalnie jak podczas gry (choć test powinien być powtarzalny więc w jakimś stopniu wybieranie jest wskazane ale nie aby coś tam udowodnić tylko normalnie). I tyle. Wiadomo, że jeśli w przyszłości zmienie kartę graficzną to się okaże, że gdybym kupił lepszego proca to miałbym więcej fpsów ale zabezbieczyć się przed tą sytuacją (kupując szybszego proca) może się nikła ilość naszego społeczeństwa.

    Popatrz: jak jest test kart graficznych i wychodzi, że GTS-250 jest porównywalnie wydajny jak GTX-285 to nie znajdziesz osoby, która by napisała że tak jest w rzeczywistości. Wniosek jest oczywisty: miejsce testowe jest zbyt zależne od procesora i / lub procesor użyty w platformie testowej jest za słaby do testowania kart graficznych. W przypadku procesorów identyczne wyniki skrajnie róznych procesorów przechodzą płazem... Ba! są jeszcze pochwalane!

     

    Ja używam w testach 9800 GTX'a (tak akurat padło - nie mam dostępu do GTX'a 285 na rok czasu) i testuję w rozdzielczościach w jakich ta karta wyciąga względną płynność w danych grach. W Crysis Warhead na max detalach jest to 1024 x 768, w HL2 już 1280 x 1024 AA-x4. Testuję w rozdzielczościach dostępnych dla tej karty graficznej. Wcześniej pokazałem że zmienia na GTX'a 285 i wyższą rozdzielczość nie zmienia NIC w relacjach procesorów!

  17. z prostego powodu ... GTA IV wykorzystuje 4rdzenie

    stalker nie.

    bo taktowanie e8600 i q9550 jest inne

    I własnie dlatego testy procesorów powinny być w grach - bo w jednej lepszym będzie procesor A, a w drugiej procesor B. Przykładowo Phenomy bardzo dobrze wypadaja w grach na silniku Source, ale w takim Crysisie już niekoniecznie.

     

    A nawet przy tym samym taktowaniu są istotne różnice w wydajności. Przykład (Q9400 oraz Q9450):

    STALKER CS: 33,1 do 35,8

    Crysis Warhead: 29,1 do 32

  18. Doskonale rozumiem, chcialem przedstawic tylko ze w grach w wysokiej rozdzielczosci granice miedzy Intel a AMD sa znikome. Nie przecze Intel szybciej policzy PI czy wypakuje rara o kilka sekund, ale w grach roznice sa marginalne. W takim wypadku mnie jako osobe-gracza szukajacego sprzetu do grania nie interesowalo by zacieranie sie granic skoro taka sama wydajnosc w grze moge osiagnac na AMD jak i na Intelu to wybieram AMD i laduje do tego sprzetu lepsza grafike. Bo co by bylo bardziej wydajne w 1680x1050 czy 1980x1020 ? I7 920 + GTX250 czy PII 955 + GTX275 ?

    jeszcze szybszym będzie E5200 + HD 4870 X2.

    Mówię już po raz trzeci - jeśli wolniejszy AMD zrówna się z szybszym Intelem, to i wolniejszy Intel zrówna się z szybszym AMD. najwyższy czas to przyjąć do wiadomości.

     

    @focus_ a mi sie wydaje ze ty masz problemy z interpetacja wykresow ktore ja podalem, wedlug twojej teori wykresy w zle dobranym miejscu powinny byc LINIOWE zarowno w niskiej jak i wysokiej rozdzielczosci, a teraz rzuc okiem jeszcze raz na wykresy do ktorych umiescilem linka. Czy wedlug Ciebie 49=61 ?

    Z całą pewnością nie wg mojej teorii, a Twojej. Dorbe miejsce testowe wykaże się tym, że niezależnie od rozdzielczości będzie ten sam wynik (podobny). Złe miejsce testowe to takie w którym wynik spada wraz ze wzrostem rozdzielczości (podlinkowane wykresy).

     

     

     

     

     

    moze mi ktos wyjaśnic po co robic testy w grach przy CPU?

    ja rozumiem zeby porownac ten sam cep przy roznych taktowaniach czy tez sprawdzic czy dodatkowe rdzenie cos dadza.

    Ale ogolnie po kij wam testy gier w arcie o CPU?

    Może dlatego, że E8600 w takim GTA IV ma 25,7 FPS, zaś tańszy od niego Q9550 32,3 FPS? Zaś w stalkerze CS E8600 ma 43,3 FPS, zaś Q9550 już tylko 38,1.

     

    Ale to przecież jest bez znaczenia...

  19. Tekstu z eGiełdy nie czytałem ale jutro to zrobię.

    Generalnie nie ma co rozmawiać dop[óki tego nei przeczytasz, bo to wiele wyjaśnia.

     

     

    A z tym dobrym miejscem testowym to jak ktoś się uprze to może się okazać, że E5200 jest wydajniejszy od i7 975. Ja piszę o porządnie i rzetelnie wykonanych testach.

    Jeśli wychodzi, że E5200 jest szybszy od i7 975, to (poza super wyjątkowymi sytuacjami jak np. SCDA) znaczy że ktoś źle robi testy. Jeśli jednak komuś wychodzi, że E5200 jest szybszy od E8600 to już kategorycznie wskazuje na błąd testującego.

     

     

    Co do braku różnic między procesorami, to po części podzielam Twoje zdanie. Oczywiście może się okazać, że w grach procesor droższy będzie miał taką samą wydajność jak tańszy. Ja próbuję wykazać, że skoro już się robi testy w grach to niech to będą testy jak najbardziej zbliżone do warunków domowych. A jeśli różnice między procami wynosić będą po 1 % to też coś mówi. Ja na przykład jeszcze miesiąc temu zastanawiałem się nad zmianą mojego E8500 na któregoś z i5, później okazało się, że sytuacja finansowa mi na to nie pozwoli, a teraz po testach widzę, że nawet jak bym miał kasę to nie zrobiłbym przemiany. Po prostu różnica w wydajności jest niewspółmierna do kosztów zmiany platformy. Za miesiąc czy dwa jak finanse pozwolą to zmienię mojego 8800GT na coś nowszego i na rok przynajmniej starczy. A później jak wyjdą 32nmto się zobaczy...

    Jak przeczytasz to skreslisz co tutaj napisałeś.

    Nie twierdzę, że jest sens wymiany Twojego procesora (gdybym go miał podkręconego to zmieniłbym tylko wtedy gdybym nałogowo grał w GTA IV lub ARMę II), bo właśnie do gier jest to super świetna maszynka - lepsza od niemal każdego 4-rdzeniowca obecnego na rynku w cenie do 1100 złotych. Ale chciałem napisać coś innego:

     

    Jaka będzie różnica jeśli ja przetestuję procesory w 1024 x 768 na 9800 GTX'ie względem tego jakbym to zrobił na GTX'ie 285 w 1600 x 1200? 9800 GTX uzyskuje mniej więcej tyle samo FPS w 1024 x 768, co GTX 285 w 1600 x 1200. Jeślibym posiadał własnego GTX'a 285 testowałbym w wyższych rozdzielczościach, jednak nie miałoby to kompletnie wpływu na wynik. Popatrz na to:

     

    GTX 285 i 1920 x 1440 AA-x4:

     

    Dołączona grafika

     

    E8600 uzyskuje 43,4 FPS, zaś E8400 39,4. Jest więc szybszy o 10%

     

    A teraz 9800 GTX i 1280 x 1024 AA-OFF:

     

    E8600: 46,3

    E8400: 42,5

    Różnica: 9%

     

    To samo można sobie przeliczyć w przypadku E8600 oraz Q9550. W jednym 15, a drugim 14% różnicy.

     

    Co więc zmienia ta rozdzielczość? Tylko i wyłącznie samopoczucie czytającego artykuł, bo dobrze przygotowany test będzie niezależny od grafiki.

  20. prosze bardzo, wedlug twojej teori wszedzie wyniki powinny byc takie same zarowno przy rozdzielczosci x600 jak i x1050 dla wszystkich procesorow:

     

    a jednak nie sa :)

    Ty masz rzeczywiście jakieś duże problemy nie tylko ze zrozumieniem logicznych zależności, ale i przeczytaniem kogoś ze zrozumienim.

     

    Powyższe wykresy pokazują tylko, jak ktoś źle dobrał miejsce testowe - tylko tyle i aż tyle.

     

    Ja też mogę pokazac taki wykres (już go pokazywałem):

     

    Dołączona grafika

     

    A oto wykres z DOBREGO miejsca w TEJ SAMEJ GRZE:

     

    Dołączona grafika

     

    Te same procesory, te same ustawienia, ta sama gra - ale jakże inne wyniki. Szkoda tylko, że dla Ciebie powyższe jest za trudne.

  21. @Piterro

    poszedl pw ktory od focusa dostalem z wyjasnieniem, mysle sensownym. Troche w tym co piszesz racji jest, glownie chodzi mi o zdanie:

    "Na przykład posiadacz procesora A zobaczy na wykresach low res, że procesor B jest o 30 % szybszy. Kupi potwora, zagra a to się okazuje, że przyrostu prawie nie ma bo gra na FullHD."

    Tylko ze to spowodowane jest niewiedza czytajacego, albo "nadwiedza" tych ktorzy doradzaja w tematach na forach :) Tak naprawde po tych testach wiemy tylko tyle, ze w konkretnej grze przy takich ustawieniach procek nie bedzie mial znaczenia, ale to konkretna gra/konkretne ustawienia i testowane w sytuacji gdy proce nie graja roli. W innej grze moze byc inaczej , jak pokazuje przyklad wklejony wyzej przez focusa

    Nie można mówić, że ta gra jest zależna od procesora, a ta już od grafiki. Oczywiście są gry które nieobciążają procesora w znaczącym stopniu, a są i takie które wybitnie na nim siedzą. Przykładem jest tutaj GTA IV, które siedzi mocno na procesorze i bardzo trudno jest w niej zajechać grafikę bez posiadania naprawdę mocnego CPU. Niemniej Crysis, zresztą podobnie jak Far Cry (ten pierwszy - w końcu to samo studio), jest naprawdę majstersztykiem jeśli chodzi o testowanie czegokolwiek w komputerze. Ktoś kto posiedzi trochę nad jedną jak i druga grą bez problemu przygotuje pełen zestaw miejsc testowych. Jedne bedą dobre dla procesora, inne dla karty graficznej. Logicznym jest że w każdej grze w przypadku gdy walczymy z kilkoma przeciwnikami i jak do tego dojdzie jeszcze jakaś fizyka to procesor będzie pracował na najwyższych obrotach. Jeśli jednak ktoś testuje PROCESORY w miejscu, gdzie nie ma przeciwników, to już nie moja wina że później wychodzą mu różne wyniki w różnych rozdzielczościach i wyniki wraz ze wzrostem rozdzielczości się spłaszczają. No ale jak widać fanboye AMD grają w Crysisa bez przeciwników, bo wtedy ich procesory są tak samo wydajne jak Intele :blink:

     

    Oczywiście, że można pokazać test w miejscu gdzie niezależnie od procesora dana karta graficzna będzie uzyskiwać ten sam wynik. Ale Crysis (jedna z najjbardziej wymagających od procesora gier) jest akurat taki, że tam naprawdę jest potrzebny mocny CPU.

     

    Zresztą można to podpatrzeć w moich testach. 3364236[/snapback]

    to co bylo testowane przy okazji testu i5 i i7 jak najbardziej sie nada, albo choc niektore aplikacje. Co do gier to tez zestaw byl ok mysle, choc ja tutaj mam mala wiedze co jest dobre do czego. Patrze z reguly na gry ktore maja malo fpsow bo wtedy wyniki wydaja mi sie bardziej "mowiace prawde" :)

    Czyli wszystko w czym testuję? OK :)

    Niemniej byłoby mi łatwiej jakbyś wskazał aplikacje oraz gry, ktore Cię interesują, bo nie wierzę że wyniki np. w 3D Studio Maxie czy May'i Cię interesują :)

  22. Brawo Piterro doskonale to ujales ale przeciez Fanboje Intela wiedza lepiej wszystko, od razu mowie ze przyznaje racje ze Intel jest szybszy ale w SuperPI i innych programach ale nie grach !!! no chyba ze ktos wlasnie daje wykresy w rozdzielczosci rodem z komorek/netbokow.

    Nawet nie rozumiesz do końca co napisał Piterro, a się wypowiadasz.

     

    Ale jak widzę argumentów brak z Twojej strony - więc zaczyna się pyskówka. Napisałem, że kij którym próbujesz uderzyć ma dwa końce - ale widać że nawet tego nie łapiesz.

     

    EDIT: tak focus kazdy zle dobiera miejsce testowania tylko ty wybierasz dobre.

    Udowodnij, że robię źle - jakież to proste.
  23. @ Piterro. Zapytam po raz któryś tam: czytałeś to: Metody testowania procesorów w grach?

     

    Jeśli jest dobre miejsce testowe to procesr uzyska ten sam wynik w 800 x 600, co w 1920 x 1440. Żaden problem.

     

    Jako kontrargument na Twojego posta podaję inny wykres:

     

    Dołączona grafika

     

    Tylko, że jedyne co on udowadnia to to, że test któego wyniki są na powyższym wykresie jest TOTALNIE zależny od karty graficznej, a nie jest w ogóle zależny od procesora.

     

    Przeczytam DOKŁADNIE co Ci podlinkowałem i w razie wątpliwości pisz.

×
×
  • Dodaj nową pozycję...