Skocz do zawartości

focus_

Stały użytkownik
  • Postów

    1391
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    1

Odpowiedzi opublikowane przez focus_

  1. Która z tych kart ma lepsze chłodzenie:

    http://www.esc.pl/product_info.php?products_id=8529

    http://www.esc.pl/product_info.php?products_id=12684

    http://www.esc.pl/product_info.php?products_id=14421

     

    Bo chciałbym kupić jakiegoś taniego hd4850, ale nie wiem który najlepszy.

    Nie wiem jakie chłodzenie ma ta pierwsza karta, ale mogę Ci odradzić to ostatnie. Chłodzenie z tego Asusa jest bardzo przyzwoite.

     

     

     

     

     

     

    W temacie procesorów.

    Musi Wam bardzo leżeć ten temat na wątrobie, skoro tylko odezwę się w temacie, odrazu na mnie naskakujecie że polecam C2D zamiast Phenoma II X3. Żaden z Was nie potrafił mi wskazać w który m miejscu rzekomo polecałem Core 2 Duo zamiast Phenoma II X3, ale dyskusja się toczy. Nikt nie potrafił odpowiedzieć na moje pytanie w kwestii tego, dlaczego na PCLabie procesory AMD wypadają tak tragicznie w Photoshopie, podczas gdy praktycznie wszędzie indziej jest dużo lepiej - to nikomu nie przeszkadza.

     

    Nie ważne, że nikt inny nie testuje w DiRT, GTA IV czy SCDA - "inni nie zaobserwowali problemów w tych grach, a tylko ja, a to znaczy, że problemów nie ma." Ten tok "myślenia" jest wspólny dla większości z Was i niewątpliwie jest w nim "dużo" logiki.

     

     

     

    Ciekawe kiedy zacznie się edytowanie postów i ich kasowanie - LOL

  2. My nie rozmawiamy o różnicach między DX9/10, a 11. Ja mówię o naturalnym rozwoju wydajności kart graficznych, a nie, że taka relacja będzie przy wcześniejszym DX, a taka przy późniejszym. Mówię tu o pewnym okresie czasowym, jakim będzie pojawienie się kart z DX11.

     

    To ty chcesz, żeby wyglądało to tak, że ja sądzę jakieś głupoty - o nie.

    Napisałeś:

     

    X3 710 (a często można go zmodować na X4) będzie dobrym procesorem na karty graficzne z DX11, zaś obecne gry korzystają z dobrodziejstw większej niż 2 ilości rdzeni.

    Z powyższego wynika, że w grach DX11 ma się pojawić jakiś boost czy coś dla procesorów więcej niż 2-rdzeniowych, a tak nie będzie (w miejscach faktycznie zależnych od procesora). I o to mi cały czas idzie, a nie o to czy Phenom II X3 jest lepszy od C2D czy nie.

     

     

    To, co uważasz o Phenomach II X3, to jest Twoja sprawa. Ja mogę brać informacje z innych źródeł, których mi nie brakuje (nie wiesz jakie i nigdy się nie dowiesz). Twoje zdanie nie wpłynie na to, co będę proponował w zestawach komputerowych.

    Generalnie średnio mnie interesuje skąd bierzesz wyniki testów - w swoich opiniach jesteś bardzo nieobiektywny. Zaskakujące dla mnie jest jednak to (ale na to pytanie zadane już 3 razy, nigdy mi nie udzieliłeś odpowiedzi), że testy vortalu na którym piszesz są dla Ciebie nic nie warte, nieobiektywne itd. itd. Ja bym się wstydził publikować artykuły na vortalu, na którym są testy dotyczące tej samej kategorii sprzętu, a z którymi sam się nie zgadzam. Graniczy to z hipokryzją.

     

     

    Dziwne jest to, że próbujesz przez cały czas coś udowadniać widząc, że od początku nie przynosi to skutku. Dziwię się po prostu, że się to Tobie nie znudziło.

    Ty naprawdę masz mocno zastawione oczy (już sam nie wiem czym), że widzisz w moich dzisiejszych postach krytyke procesora AMD (jakiegokolwiek). Zapytałem jasno: co ma w kwestii obsługi wielu rdzeni zmienić DX11, że niby Phenom II X3 ma się jakoś znacząco wybić ponad swoich konkurentów, względem dzisiejszych gier.

     

    I nie - przy obecnym układzie cen nie będzie zestawów opartych o E5200 (jest X2 245), E7400 i E8400 (są Phenomy II). Nie jestem fanboyem AMD. Gdybym był, to nie umieszczałbym zestawów opartych o Q9550, które uważam w swojej cenie za najlepsze.

     

    Także radzę Ci, byś tą praktyką już się nie trudził - szkoda energii.

    Gdybyś był obiektywny, to Kuma by się w zestawach nie pojawiła - przyznają to nawet osoby stronnicze na rzecz AMD.

     

     

     

     

    Niczego nie zmienia, co ma zmieniać?

    Jeśli się nie łapie wątka dyskusji, to nie warto się w nią wtrącać. A z Twoich wypowiedzi wynika jasno, że nie bardzo rozróżniasz dyskusję na temat DX'a 11 i obsługi wielu rdzeni procesora, względem dyskusji o relacjach między X3, a C2D.

     

    Platforma AMD jest tańsza (na tym pułapie cenowym), ale w/g Ciebie lepiej jest kupić C2D niż x3.

    Pokaż mi palcem, gdzie w ciągu ostatniego miesiąca (w kontekście cen z tego okresu) napisałem, że lepiej jest wybrać C2D zamiast X3.
  3. To jaki procesor polecasz zamiast x3?

    Ty też masz problemy z czytaniem ze zrozumieniem? Pytanie moje było oczywiste (jasno napisane): co zmienia w konkteście relacji procesorów DX11? Na to pytanie nie uzyskałem odpowiedzi.

     

    Dla Was jednak dzień bez fanatykowania na rzecz AMD to dzień stracony. Ja na temat Phenoma II X3 napisałem, co uważałem - powtarzać się nie mam zamiaru.

     

    Po prostu nie widziałem testu 2 rdzenie vs. 4 rdzenie w tej grze.

    No to masz w moim:

     

    E8300: 57,5

    Q9550: 70,3

     

    Więc jak widać gra wykorzystuje więcej rdzeni, choć robi to marnie, ale to już inna sprawa.

  4. No jeśli gra będzie obsługiwała 4 rdzenie to X3 będzie lepszy niż C2D. A jeśli da się odblokować to tym bardziej. Nie wiem czemu chcesz na siłę zniechęcać ludzi do Phenomów II X3.

    Nie wiem czemu Ty chcesz tak na siłę pokazać że nie umiesz czytać.

     

    Czy widzisz, że rozmawiamy o różnicach między procesorami w kontekście DX9/10, a DX11? Czy trzeba to napisać czcionką 40?

     

     

    A calkowicie osobną kwestią jest to, że są gry obsługujące 4 rdzenie i w nich C2D jest lepsze niż Phenom II X3 - więc skończ swoje fanatykowanie.

  5. Bo te zestawy są konstruowane pod multimedia gry a nie do pracy. Tak jest napisane na pierwszej stronie więc powinno być jasne.

    Ale mi nie chodzi tylko o dyskusję w tym wątku - w ogóle, ale to w ogóle nikt nie komentuje kiepskich wyników AMD np. na PCLabie - komentuje się jedynie te wykresy, gdzie u mnie wypada AMD kiepsko. I nie jest to zbieg okoliczności.

     

     

    PII x2 550 kosztuje 370zł

    E7400 kosztuje 440zł i to są najtańsze sklepy ze skąpca. Możliwe, że każdy proc da si gdzieś kupić taniej.

    Wyniki tego procesora AMD jak by nie było są DUŻO lepsze niż powyższego intela nie mówiąc już o E5300.

     

    Kto więc ma lepsze dwu rdzeniówki w lepszej cenie?

    To prawda, PII X4 550 jest generalnie lepszy od E7400 - jak tak przeglądowo patrzę na swoje wyniki to u mnie również wychodzi przewaga procesora AMD, ale doskonale wszyscy wiedzą (no może oprócz Ciebie) że mowa była o MOCNYCH 2-rdzeniówkach czyli głównie serii E8000. Jednak Ty musiałeś wtrącić w dyskusję na temat DX'a 11 i jego rzekomo rewolucyjnej wielordzeniowości komentarz do czegoś w czym AMD daje radę.

     

    PII x2 550 kosztuje 370zł Co do tego o czym napisałeś, to nie wiem czy tak jest i może masz rację. Jeżeli tak jest to faktycznie nadal opłacać się będą x2 vel core 2 duo.

     

    W świetle faktów, które zapodał Focus to całkiem możliwe że nie, a szkoda, bo wielowątkowość jest niewątpliwie przyszłością. Ale chciał by poznać do tego zdanie drugiej strony, czyli autora artykułu z pcl a może jednak?

    A co tutaj komentować? DX'y nigdy nie określały w jaki sposób pisać fizykę czy A.I. Przecież nie po to powstawały i powstają rzeczy typu Havok, czy PhysX, czy np. własny system fizyki jaki był zaimplementowany w Far Cry. GTA IV jest grą dX9, już nawet nie DX10 a mimo to wykorzystuje 4 rdzenie. Gro gier DX10 korzysta tylko z jednego rdzenia (np. STALKER CS).

     

     

     

    A 500* innych międzynarodowych i k10* innych Polskich tego nie zauważyło. Co więcej żaden z niezależnych użytkowników tego procesora nie uskarżał się na takie problemy. No chyba, że teraz wyślesz gońca prędko aby pisał posty jak to mu doskwiera problem z x3 opisany przez egielda.

    Ludziom to nie przeszkadza więc czy to istnieje czy nie nie ma dla mnie znaczenia.

    * - dane szacunkowe

    Mówię jeszcze raz: to, że ktoś nie zauważył problemu nie znaczy że go nie ma. Jeśli nikt nie testuje w Colin DiRT czy w Splinter Cell Double Agent to znaczy, że procesor w tej grze spisuje się OK, bo redaktor nie zaobserwował problemu? A jak miał zaobserwować, skoro nie testował w tej grze? To pytanie zadaję już Tobie przynajmniej 3 raz i jak grochem o ścianę. Jakbym chciał wysłać ludzi do pisania że są problemy to bym to dawno zrobił. Druga strona w tej kwestii nie próżnuje. Byli ludzie, którzy pisali że mają problem, ale skutecznie się ich zagłuszyło, albo nikt nie odpisał - nawet nie wiem jak tego teraz poszukać. Druga sprawa jest taka, że ktoś kto nie ma porównywalnego sprzętu nie może zaobserwować niskiej wydajności w Crysis, bo niby na jakiej podstawie ma stwierdzić, że ma za wolno? Ale żyj sobie w swoim świecie.
  6. Zastanawia mnie też dlaczego nikogo nie bolą mega kiepskie wyniki procesorów AMD w Photoshopie na PCLabie? O tutaj:

     

    Dołączona grafika

     

    X4 955 jest słabszy nawet od Q8200. Anandtech: 3318531[/snapback]

    Trudno mi jest wytłumaczyć to inaczej niż błędem egieldy. Ogromna większość portali w tym najpoważniejsze światowe nic takiego nie stwierdziły. Może osobiste uprzedzenia miały wpływ na oceny procesorów i stąd taki efekt? Nie wiem.

    Jasne jest jednak, że tak poważne portale jak anandtech testowały PII x3 i im wyszedł w tych samych grach dobrze więc?

     

    Na pewno nie jest to spowodowane brakiem wiedzy bo testy robił Focus, jeden z najlepszych testerów w Polsce.

     

    Stare, bo stare ale masz:

     

    http://www.anandtech.com/cpuchipsets/showd...?i=2411&p=1

     

    Both patches are scheduled to be available to gamers starting today, free of charge, but of course, you must already have a copy of Far Cry to utilize them. The patch and the exclusive content update will only install under Windows XP Professional x64 Edition, so 32-bit XP Professional users will not be able to even install the additional content patch.

     

    oraz: Far Cry 64-bit

  7. A poza tym można się spodziewać radykalnej poprawy opłacalności trzy i cztery rdzeniówek po premierze DX11. Zapewne czytałeś co nieco na ten temat bo piszesz jak byś zjadł wszystkie rozumy.

    Maxi - ja rozumiem, że nie siedzisz w komputerach jakoś tak bardzo głęboko, ale żeby dac sobie takie kity wciskać...

     

    DX11 faktycznie zmienia kwestię podejścia do wielordzeniowości w grach, ale trzeba być ... żeby nie załapać że chodzi TYLKO o zadanie polegające na dostarczaniu danych do karty graficznej. Więc DX11 zmieni to, że w czasie gdy na ekranie nie będzie trzeba liczyć fizyki ani A.I. to będziemy mieć 800 zamiast 400 klatek na sekundę. Jak będzie fizyka itd. to będziemy mieli 30 tak jak i mieliśmy 30 wczesniej. Dopóki deweloper nie napisze fizyki, A.I. dla wielu rdzeni dopóty gry DE FACTO nie będą wykorzystywały wielu rdzeni i DirectX 11 nic w tej kwestii nie zmienia.

     

    Świat fanatyków AMD / ATi musi mieć bardzo duże klapki na oczach żeby nie widzieć papki marketingowej w tych rewelacjach na temat DX11. Na kilometr jechało w artykule o którym rozmawiamy spryktnym zabiegiem marketingowym mającym na celu zdetronizowanie mocnych dwurdzeniówek - bo takich AMD nie ma.

     

     

    Na Egieldzie świat się nie kończy. Polecam poczytać inne testy. A najlepiej popytać się użytkowników Phenomów II X3. O ile wiem, to żaden użytkownik nie miał takich problemów, jak opisuje egielda.

     

    Często też udaje się odblokować - ostatnio chyba 2-3 osoby zrobiły to ( pclab ).

    Owszem an egieldzie świat się nie kończy, ale 2 inne serwisy z Polski i dalej dwa zagraniczne również potwierdzają moje obserwacje. Niestety nikt oprócz nas nie testuje GTA IV ani DiRT'a czy Splinter Cell'a więc nie ma gdzie szukać podobnych wyników. Ale w przypadku Crysisa mam poparcie.

     

    Kolejna rzecz: jeśli ktoś zaobserwował błąd to znaczy że on występuje - może w jakiejś określonej konfiguracji, ale jednak. Tak samo byli użytkownicy, którzy zaobserwowali problem, ale o te wypowiedzi jakimś dziwnym trafem pomijacie milczeniem.

  8. Na tym forum coś się złego dzieje - post "qqrydzy" który był zaraz pod moim zniknął. Ktoś pilnuje by AMD/ATi nie było krytykowane czy jak?

     

     

    @ mobo

    Dzięki za linka, postaram się to sprawdzić jeszcze w weekend. To co mnie zastanawia to dlaczego nie ma ani słowa o tym patchu ani na oficjalnej stronie gry, ani np. na gamershell.com. Jakieś dziwne...

    Niemniej z listy zmian wynika, że są one bardzo konkretne. Pojawia się dla mnie drugi bardzo poważny problem - brak save'ów - ktoś może ma dla wersji z patchem?

  9. Na sprzecie z siga w 1680x1050 (natywnej) grac nie moge i jest to pierwsza gra ktora tak slabo chodzi i nawet z AA i Anzio troche mnie to razi bo juz dawno w nic w nizszej rozdzialce nie gralem ^_^ . W crysisie przynajmniej detale da sie dopasowac. Pozatym shader 4.0 nie dziala bo sa jakies dziwne bledy.

    Miałem zadać pytanie czy grał w to ktoś z kartą Ati, ale chyba znalazłem odpowiedź. na sterownikach 9.5 wciąz są jakieś jajca z tym SM 4.0. Co ciekawe nawet licznik frapsa jest jakiś taki dziwny. Ale to jeszcze nic - screenujesz i na zrzutach wszystko jest OK - a więc jakaś ostra akcja. Szczerze mówiąc, to nie wiem co w tej sytuacji robić. Bo testować karty na SM4.0 w takiej sytuacji jest bezsensowne, skoro na jednej z nich nie da się grać w takim trybie.
  10. Dziwne te wasze problemy, bo z tego co się orientuję, to ani Gi3r3k, ani Miguel nie mają problemów w GTA4. Tyle, że oni obaj mają HD4850. Brat z C2D E8400 + HD4870 też problemów nie ma...

    A właśnie - zapomniałem o jednym - patcha 1.03 mają? I druga sprawa jest taka, że oni zdaje się nie mają Core i7, co też może mieć znaczenie (na przykładzie GF'a przecież to wyszło).
  11. Mam pewien dziwny problem, którego nie wiem jak rozwiązać. Zacząłem testować karty graficzne w GTA IV i akurat mam pod ręką HD 4870 1GB oraz 9800 GTX'a+ 512 MB. Problem polega na tym, że karta ATi generuje sporo większe obciążenie procesora. Sprawdziłem to na jednym z testów zależnych od CPU i na tych samych ustawieniach relacja jest typu 32 vs. 28 FPS na korzyśc karty nvidii. Jednak to nie stanowi jakiegoś wielkiego problemu, bo tego się spodziewałem.

     

    Gra domyślnie włacza ostatni save i w moim przypadku ładuje noc o godzinie 00:30. na tym save'ie mam jeden test, zaś na drugim (godzina 17:30) mam drugi test. Problem polega na tym, że każde kolejne ładowanie save'a powoduje spadek wydajności. Wuygląda to mniej więcej tak:

     

    save noc: 49

    save dzień: 35

    save noc: 40

    save dzień: 28

    save noc: 30

    save noc: 26

     

    Powyżej nie ma pomyłki w kolejności czy coś. Na GF'ie wygląda to tak:

     

    save noc: 48

    save dzień: 38

    save noc: 47

    save dzień: 37

    save noc: 47

    save noc: 47

     

    Generalnie nie byłby to jakiś poważny problem, gdyby nie to że nawet na podkręconym Core i7 mam spadki do 19 FPS w rozdzielczościach typu 1024 x 768 z detalami identycznymi jak na karcie 9800 GTX 512 MB. W miejscu testowym mam 19 FPS w 1600 x 1200, podczas gdy GF 9800 GTX ma 29

     

    Obserwuję też systematyczny spadek wydajności wraz z ilością czasu jaki spędzam w grze - przy czym nie mówię tutaj o godzinach, a o minutach w liczbie mniejszej niż 10.

     

    Czy ktoś spotkał się z podobnym problemem?

     

    Konfiguracja: Core i7 (różnie taktowany: od 2,66 GHz do 3,8 GHz), 4 GB RAMu, XP 32-bit SP3, Catalysty 9.5.

  12. Chodziło mi o przycinki w np. crysis.

    Dużo osób ma x3 i nikt nie narzeka na te niby problemy.

    Szkoda tylko, że ja o przycinkach w Crysisie nie pisałem - ale jak widać wśród "zwolenników" procesorów AMD bardzo popularne jest dopisywanie do cudzych wypowiedzi wygodnych dla siebie tekstów.
  13. Dużo osób kupiło już x3 i pisałem z kilkoma i nikt nie miał takich problemów jakie wy zauwyżyliście.

    Już na ten temat rozmawialiśmy - nie masz porównania do innych procesorów tej samej klasy, więc to, że uważasz że "u Ciebie problemu nie ma" nie oznacza, że na innym procesorze nie będzie znacznie szybciej, bo o to właśnie chodzi.

     

    Za 2 tygodnie będę miał w 100% pewny test odnośnie porównania Phenom II X3 vs E8400.

     

    Będzie w tym teście na pewno Crysis Warhead.

    Aha - czyli test vortalu, na którym sam jesteś redaktorem jest dla Ciebie niewiarygodny i "niepewny", tak? Dobre :lol2:
  14. Tak twierdzi egiełda. Nie ma potwierdzenia tych problemów na zagranicznych forach. U nas bodajże ktoś testował Phenoma II X3 w Crysisie i nie zauważył żadnych problemów. Eksperci z egiełdy stwierdzili, że nie ma on porównania do innych procesorów...

     

    EOT.

    Twoja pamięć jest wyjątkowo krótka - FrazPC.pl, PurePC.pl, neoseeker oraz TechReport potwierdzają to o czym piszę.

     

    Do 2500zł najlepsze będą AMd. Ok 3000zł lepszy już by był q9550 intela. Karty graficzne obecnie raczej ATI@AMD.

    Procesor AMD? OK, ale nie X3.
  15. @opson, daron -

    wyjaśnijcie dlaczego anandtech i tysiące portali na świecie miało bardzo dobre wyniki phenomów II. Wszystko działało płynnie i bez żadnych wcinek w przypadku PII 710/720. U was i na frazie natomiast wykazaliście bardzo duże wady tych procesorów?

    1/ ogólnoświatowy spisek?

    2/ ogólnoświatowa niewiedza, tylko focus jako jedyny potrafi robić testy na Ziemi?

    3/ nie chce zgadywać, ale może też po waszej stronie jakiś błąd?

    4/ jeszcze inne wytłumaczenie?

    Proszę i z góry dziękuję.

    Inni testowali DirT'a? A może GTA IV? Widziałes testy w SCDA? Zatem jak miało im wyjść, że coś tam skacze, zacina się? W przypadku Crysisa, to można z powodzeniem przyznać, że cała zagranica testuje w timedemo, z reguły graficznym.

     

    Pisałem to już do Ciebie ze 3 razy - ile trzeba żeby dotarło?

     

    No nie zmienily by sie,ale Ati/Amd,bardziej to mialem na mysli,wiec po co im firma nie przodujaca "w ich" w testach.

    Masz rację - powinniśmy byli użyć Radeona HD 48x0. Wtedy Core i7 odstawiłby w grach inne procesory (w tym również AMD) jeszcze bardziej. Jeśli nie doczytałeś, to z powodu skopanych sterowników nvidii Core i7 obrywa w kilku grach w mniejszym bądź w większym stopniu. Uzycie Radeona zwiększyłoby dystans dzielący Core i7 od innych procesorów. Ciekawe co ma na to odpiszesz, jeśli w ogóle :lol2:
  16. Miejsca gddzie to napisał pewnie tradycyjnie mam szukac gdzies w innym miejscu?

    Dawno nie rozmawiałem z większym ignorantem...

     

    Problem w tym ze cpu nie dostarcza calych klatek tylko czesc danych niezbędnych do ich wygenerowania. Podobno wiesz dobrze o czym piszesz...

    Jasne, że nie dostarcza finalnej wersji klatki, ale dostarcza informacje co i gdzie na tej klatce ma się znajdować, w świetle czego piszesz bzdury.
  17. Widac, tylko trzeba uzyc kamery kręcącej w troszkę wiecej fps niz 25. A 'ktos' tam wspomniał ze 25 to jest max w normalnych kamerach, które da się dostac. To juz "bardzo dobrze" swiadczy o wiedzy takiej osoby.

    Trzeba by się urwać z choinki by nie wiedzieć, że istnieją kamery rejestrujące nawet kilka tysięcy (czy więcej) klatek na sekundę - próbujesz mnie zdyskredytować, co Ci się nie udaje. Pisząc tamto zdanie miałem na myśli to, że nie będę wydawał kupy kasy na tego typu kamerę jeśli miałabymi być potrzebna tylko do pokazania wydajności procesora. Typowa kamera, która jest powszechnie dostępna nagrywa z szybkością od 24 do 30 klatek na sekundę, a to nie wystarcza.

     

     

    I jeszcze zwrócmy uwagę na pewien fakt. Pewnej osobie bardzo zalezy zeby pokazac ze jeden procesor jest wolniejszy od innego chociaz teoretycznie powinny być porównywalne. W tym momencie zaczyna glosic ze nie nadaje on się do gier. Tylko co obchodzi to potencjalnego kupca, skoro ten procesor jest znacznie tanszy.

    Tak - rodzina Core 2 Duo E7000 faktycznie jest "znacznie tańsza" od rodziny Phenomów II X3. :lol2:
  18. Dlatego własnie nie powinno się uzywać frapsa. W niektórych sytuacjach oprogramowanie tego typu nie jest w stanie wyswietlic tego co powinno. Do tego dochodzi kwestia uzytego oprogramowania. Problemy tego typu są dosc specyficzne i wystepuja od wielu lat. Jezeli wydajnosc (fps) sie nei zmienia a widzimy zmiane w płynosci trzeba się zastanowic w czym problem. Zwykle lezy on na lini oprogramowanie-sterowniki-karta graficzna, nie samego cpu, bo on tam prawie za nic nie odpowiada.

    Sideband napisał bardzo jasno w czym tkwi rzecz. Żaden program, ani też urządzenie, nie jest w stanie zbadać ilości wyświetlanych klatek na matrycy monitora (zresztą tam jest ich zawsze tyle ile jest Hz), ani na kablu monitora - zawsze jest to bufor ramki w karcie graficznej. Jeśli występuje rozbieżność na tej samej płycie głównej, tej samej karcie graficznej z tymi samymi sterownikami (wszystkimi), ale na jednym procesorze (X4 lub C2D / C2Q) problemu nie ma, a na drugim (X3 / C2D Conroe 4M) problem jest, to znaczy że jest to wina procesora / złej współpracy gry z tym modelem procesora. Teraz masz wybór: stwierdzasz, że jest to wina gry i w nią nie grasz, albo stwierdzasz że to jednak na innym procesorze jest lepiej, wiec po prostu kupujesz inne CPU.

     

    W zdaniu "Zwykle lezy on na lini oprogramowanie-sterowniki-karta graficzna, nie samego cpu, bo on tam prawie za nic nie odpowiada." kolejny już raz się "wykazałeś". Karta graficzna nigdy nie wyświetli więcej klatek na sekundę niż jest jej w stanie dostarczyć CPU, w związku z czym owszem - odpowiada za "trochę" więcej niż "nic".

  19. Jak to szło? Wybierz, która ma byc lepsza a dobierzemy testy? To by bylo na temat polecenia przez osobe testująca.

    Nie uda Ci się. Ja, ani nikt z naszej redakcji nic takiego nie powiedział - nigdy.

     

    Po polsku, to takie trudne?

    Zeby miec wiedzi i umiejętnosci na temat podkrecania trzeba miec i wiedze na temat samych kart. Czy przypadkiem któregos ci nei brakuje?

    Widać jak bardzo daleka jest Ci wiedza na temat tego czym się różni testowanie kart graficznych od ich podkręcania. Oczywistych spraw nie mam zamiaru tłumaczyć.

     

    Przy tej ilosc fps zadna i kazdy gracz ci to powie.

    W takim razie mamy inną definicję pojęcia "każdy".
  20. To jak? PoOdwazasz czy nie podwazasz bo jednak własnie to zrobiłes.

    Jeśli dla Ciebie stwierdzenie typu: "podważam jego wiedzę w zakresie kart graficznych, ale nie podkręcania" jest niejasne, to nie wiem w jaki sposób trzeba do Ciebie pisać.

     

    A to coś zmienia w całosci? Bo własnie napisales ze jednak jest OK.

    Mój rozmówca napisał, że problem występuje na dwóch Radeonach HD (jakichkolwiek) oraz HD 3870 X2, ale na HD 4870 X2 nie, co jest bzdurą. Występował na każdej konfiguracji CrossFire, ale problem został rozwiązany (bo leżał on w sterownikach) i nie występuje on już na żadnej konfiguracji.

     

     

    Czyli uwazasz ze co miesiąc trzeba nabrac w (*^*&%$ sprzętu przetestowac i dopiero pisac poradnik... który na koniec nie będzie juz aktualny?

    Nie no - jasne - lepiej jest polecać sprzęt którego się w ręku nie miało, albo polecił go ktoś kto się nie zajmuje np. testowaniem kart graficznych.

     

     

     

    NO więc mamy problem. Bo chcac odpalic sobie nową gre na najwyzszych detalach zamiast 20fps gra będzie działala jak na 18... Wiele to zmienia.

     

    Jakiś X3 coś ci zrobił w przeszlosci ześ tak się go uczepił?

    Widać, że i matematyka u Ciebie zawodzi. między 18, a 20 FPS jest różnicy około 10%. Jesli nie zdecydujesz się na granie na max detali, to relacje będą typu: 25 zamiast 30, albo np. 30 zamiast 36. To też pewnie nie różnica.
  21. Jak lubicie oficjalne oswiadczenia to prosze: Ja nie mam nic wspolnego z tym, co glosi focus wraz z portalem egieldy. Nie wkladaj w moje usta slow, ktorych nie wypowiedzialem.

    Oczywiście...

     

    Dołączona grafika

     

    Phenom II X3 720 wolniejszy od Phenoma 9850 o około 20%, podczas gdy teoretycznie powinien uzyskac wynik na poziomie Phenoma II X4 920.

     

    Wyniki przepisane z wykresu:

    Phenom II X3 720: 47,99

    Phenom X4 9850: 57,3

    Phenom II X4 920: 60,43

     

    Powyższe jest jednoznaczne - potwierdza to o czym piszę ja oraz Weelkoo z FrazPC.pl

×
×
  • Dodaj nową pozycję...