Skocz do zawartości

focus_

Stały użytkownik
  • Liczba zawartości

    1391
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    1

Zawartość dodana przez focus_

  1. focus_

    Ati Radeon Hd58xx

    No ja mówię przecież o tej samej :) Trudno żebym porównywał 1280 x 1024 na jednej karcie z 1920 x 1200 z dwiema i mówił że Ci CF nie działa. Benchmark_gpu puszczam z poziomu linii komend - przygotowany plik bat, który robi dokładnie to samo co ten benchmark, ale w systemach 32-bitowych plik bat umożliwia puszczenie ilu sie chce testów w jakich się chce rozdzielczościach. W kwestii podkręcania - spróbuj podkręcić sam rdzeń albo samą pamięć i połowę róznicy jaką teraz masz. Z tego co wiem to wiele ponad to 1300 MHz na pamięci nie ma, więc może to jest problemem.
  2. focus_

    Ati Radeon Hd58xx

    CF działa bo ma przynajmniej 10 FPS więcej niż ja uzyskałem w tym samym tescie
  3. focus_

    Ati Radeon Hd58xx

    @ Bartass13. Coś strasznie kiepawy ten wynik. Masz procka taktowanego o 0,2 GHz więcej niż ja, więc procesor Cie nie trzyma (tym bardziej, że w tym tescie limit na Radeonie to nie mniej niż 85 FPS na jednej karcie przy 4 GHz i7), a ja na jednej karcie uzyskałem 35,4. Nawet jakbyś miał włączone Anizo to i tak jedna karta uzyskuje 32,7 FPS. Liczyłem na sporo większy przyrost. Chyba, że CrossFire jest jakoś ostro spartolone np. pod kątem CPU.
  4. Nie wiem czy w dobrym miejscu założyłem topic, ale mam nadzieję, że tutaj będzie większy odzew niż w wątku o systemie operacyjnym. Zabrałem się za testy dysków twardych i postanowiłem wybrać system operacyjny Windows 7 do tego celu. Niestety jak się okazuje, Windows 7 obsługuje dyski twarde w dość specyficzny sposób. Buforuje dane które są kopiowane / przenoszone w pamięci RAM. Wygląda to tak, że jak się zapisuje dane na dysk twardy np. o wydajności początkowej na poziomie 105 MB/s to uzyskuję transfer nawet na poziomie 250 MB/s. Pierwsze 1600 MB jednego potrafiło się skopiować w czasie 10-11 sekund! Później prędkość transferu (normalnego kopiowania) spadała do wartości rzeczywistych, a później nieco niższych od rzeczywistych. Sumarycznie wychodzi, że zapis jest szybszy od odczytu... Drugim, zdecydowanie poważniejszym problemem jest fakt, że prędkość kopiowania między partycjami (czy w obrębie jednej partycji) jest szybsza na Windows 7, niż na XP. Różnica to zwykle coś na kształt 52 vs. 46 MB/s czy 33 vs. 31 MB/s - nie potrafię określić dlaczego raz jest większa różnica raz mniejsza - zależy to od partycji które używamy oraz od... dysku twardego. Problem polega na tym, że dyski Western Digital z jakiegoś powodu pracują znacząco wolniej na Windows 7, niż na XP - zupełnie przeciwnie niż produkty innych marek: Seagate, Samsung czy Hitachi. Na WD jest wolniej nawet w skali: 25 Mb/s vs. 37,6! Używam tego samego systemu operacyjnego cały czas (ta sama instalacja). Testowany dysk nie jest oczywiście ani dyskiem systemowym ani przechowywującym plik stronicowania itp. Wyłączone zostały funkcje przywracania systemu, indeksowania czy defragmentowania o czasie. Problem mam na dwóch różnych dyskach WD, więc nie wchodzi w grę uszkodzony egzemplarz.
  5. focus_

    Ati Radeon Hd58xx

    Już o tym pisałem, ale co mi tam - rozwinę to bardziej. W 2006 roku podczas premiery GF'a 8800 GTX oraz środowiska DX10 (niemal równolegle) było głośno na temat jednej kwestii: 3381347[/snapback] @focus postaram Ci się udownić ,że różnica pomiędzy e8400 @ 4ghz a i7 @ 4ghz na dwóch GTXach w SLI będzie całkiem całkiem.... teoretycznie różnica powinna być jeszcze większa na 5870 w CF bo to mocniejszego grafiki...ale puki co takowych nie posiadam. Tylko nie bardzo rozumiem, co chcesz mi udowodnić? :) Przecież ja to wszystko wiem. Pierwszy wynik jest z i7 @ 4 GHz, zaś drugi z C2D @ 4,2 GHz (narazie gry max 2-rdzeniowe) Crysis: 49,1 - 46,1 (pomimo niższego zegara jest wciąż szybciej) Doom3: 108,3 - 114 (mniej więcej taka sama różnica w FPS'ach jak różnica w częstotliwości) Fallout 3: 66 - 63,8 (pomimo niższego zegara jest wciąż szybciej) F.E.A.R.: 91,6 - 90,5 (pomimo niższego zegara jest wciąż szybciej) Half LIfe 2: 140,8 - 126,2 (pomimo niższego zegara jest wciąż szybciej) STALKER CS: 54,4 - 52,9 (pomimo niższego zegara jest wciąż szybciej) Unreal 3: 66,8 - 53,9 (tutaj 3 rdzeń jest delikatnie wykorzystywany) World in Conflict: 90,8 - 78,6 (pomimo niższego zegara jest wciąż szybciej) X3: 62,8 - 57,5 (pomimo niższego zegara jest wciąż szybciej) A teraz gry wykorzystujące więcej niż 2 rdzenie (realnie): Far Cry 2 - tutaj z powodu błędnie działającego sterownika nvidii Core i7 LGA1366 wypadało kiepsko względem rodziny Core 2 GTA IV: 44,9 - 30,9 Lost Planet: 106,3 - 62,2 GRID:: 112,9 - 90,9 W assassinie podobnie jak w FC2 Zatem to, że i7 @ 4 GHz będzie szybszy od C2D 4 Ghz nie jest dla mnie bynajmniej nowością i by to wiedzieć nie potrzebuję dwóch GTX'ów 275 / 285 czy dwóch najszybszych Radeonów :) Różnice zostaną zachowane niezależnie od wydajności karty graficznej (o ile test jest niezależny od grafiki rzecz jasna). ----------------------------------------------------------------------------------------------- DirectX 11 i obsługa wielu rdzeni Jeszcze w kwestii tego DX'a 11. DirectX nigdy nie określał na ilu rdzeniach ma bazować obliczanie fizyki w grach czy A.I. bo, tego robić nie może. DirectX to jedynie platforma dla środowiska 3D, a nie gotowy silnik do gier (jak np. Cryengine 2, Dunia itp.). Jedyne w co ingeruje (w kwestii naszej rozmowy) DirectX to współpraca ze sterownikiem graficznym oraz wspomniane wcześniej dostarczanie danych / poleceń (jakkolwiek to nazwiemy). Wszystko zaczęło się od artykułu na PCLabie na temat DX11. Cytat z niego: "Te dwa slajdy pokazują jeden z podstawowych problemów wcześniejszych DirectX-ów – do tej pory budowaniem kolejek poleceń dla GPU zajmował się tylko jeden rdzeń procesora, co łatwo mogło doprowadzić do powstania wąskiego gardła. DirectX 11 w końcu ma to zmienić i w pełni korzystać z potencjału wielordzeniowych procesorów, gdyż wszystkie rdzenie mają się zajmować przygotowywaniem kolejek poleceń i robić to równolegle. Zarządzać ma tym jeden z rdzeni, który będzie przekazywał polecenia w odpowiedniej kolejności do GPU." To co jest później to wnioski autora artykułu oraz samego AMD. Kompletnie nie rozumiem dlaczego wszyscy w powyższe zapewnienia tak łatwo uwierzyli. Już na logikę coś w tym nie gra. Już tłumaczę dlaczego: Jeśli powyższe stwierdzenia są podstawą do tego, by sądzić, że DX11 poprawi wielordzeniowość w tych grach, to w tym samym stwierdzeniu jest zawarta informacja następującej treści: "Te dwa slajdy pokazują jeden z podstawowych problemów wcześniejszych DirectX-ów – do tej pory budowaniem kolejek poleceń dla GPU zajmował się tylko jeden rdzeń procesora", a jak wiemy gier wykorzystujących 2 rdzenie jest cała masa. Już nawet całkiem sporo jest tych wykorzystujących 4 rdzenie - z GTA IV (DX9!!!), czy ARMA II (również DX9) na czele! Więc już na samą logikę cytowany artykuł wprowadcza w błąd podawając totalne bzdury lub nie zdradza szczegółów, które w tym wypadku są szalenie istotne. Tego pierwszego nie zakładam i w 99% wiem, że tak nie jest. Chodzi o te detale, o których pisałem wcześniej. To tylko potwierdza wcześniej zapisane stwierdzenie, że: "DirectX nigdy nie określał na ilu rdzeniach ma bazować obliczanie fizyki w grach czy A.I. bo, tego robić nie może. DirectX to jedynie platforma dla środowiska 3D, a nie gotowy silnik do gier (jak np. Cryengine 2, Dunia itp.)." Znając zasadę działania multi-GPU (AFR, który jest najczęściej wykorzystywany) w zasadzie nie da się przełożyć obciążenia związanego z podziałem zadań między GPU na dodatkowy rdzeń procesora, o ile producent gry nie przewidział takiej ewentualności. W jaki sposób coś działającego "obok" głównego programu (gry) będzie wiedzieć co się pojawi w następnej klatce obrazu, która akurat będzie wyświetlana na GPU numer 2? To musi być przewidziane bezpośrednio w samym silniku gry. Pytanie, które się w tym momencie pojawia i to faktycznie warto sprawdzić, to to czy jeśli dana gra skaluje się między jednym a dwoma rdzeniami w stopniu bliskim 100%, to czy podobne przyspieszenie będzie na dwóch GPU. Jeśli będzie mniejsze, to znak że w tej kwestii faktycznie DX11 będzie w stanie coś poprawić. Ale to wciąż przy założeniu, że developer gry przewidzi pracę np. 4 rdzeni procesora.
  6. focus_

    Ati Radeon Hd58xx

    To głównie zależy od tego w jaki sposób grasz. Bardzo łatwo to zaobserwować w Crysis. Jeśli idziesz na "rambo" to masz 30 FPS, zaś grając w stylu "snajpera", gdzie zdejmujesz gości z daleka, po cichu, pojedynczo, to masz nie mniej niż 40 FPS. Oczywiście nie zawsze da się grać na "snajpera" (szczególnie z obcymi), więc nie ma innego wyjścia - dlatego tak przeprowadzam testy. Niemniej Crysis bardzo dużo wymaga od procesora. Generalnie to niezależnie od grafiki i rozdzielczości nie dałem rady grać na Viście 64-bit na C2D 65nm @ 3,5 GHz (obciążenie jakie generowała vista 64-bit). Dopiero na Core i7 kręconym było OK. Inna sprawa, że na Viście 32-bit jest szybciej o dobre 20-30%, ale to już osobna bajka. Jeśli oczekujesz od Crysisa płynności na poziomie gier multi (100 FPS), to musisz się liczyć że takowego sprzetu nie ma - zarówno w kwestii karty graficznej jak i CPU. Bo w 800 x 600 HD 5870 wyrabiał jakieś 45-50 FPS w moich testach. W przypadku GTA sprawa jest bardzo prosta: jak masz grafikę która ma 2 GB RAMu (przypadające na jedno GPU rzecz jasna) to zajedziesz każde CPU. Jednak wszystko zalezy tutaj od detali, bo w tą grę można grać nawet na słabszych dwurdzeniowcach, ale oczywiście nie na wysokich detalach (mówiąc wysokie, mam na myśli: detail distanse na poziomie 50-60, tekstury high). Max detale nie są dostępne na jakimkolwiek dziś dostępnym sprzęcie. Przy czym kartom graficznym większe obciążenie stawia Crysis, a nie GTA IV.
  7. focus_

    Ati Radeon Hd58xx

    Będą przypadki, że po dołożeniu drugiej karty (co wynika z faktu, że jest to multi-GPU, o czym pisałem wcześniej) będziesz miał wolniej i to nawet w 1920 x 1200. Takim przypadkiem może być właśnie GTA IV. Na milion procent będziesz też miał wolniej w ARMA II, bo tam i7 4 GHz ma 25 FPS (i to tak bez problemu), a gra wykorzystuje 4 rdzenie. To jednak nie znaczy, że nie warto dokładać drugiej karty. Oczywiście że warto, bo będziesz mógł włączyć np. wygładzanie krawędzi, na które nie pozwalała Ci pojedyncza karta. Po prostu w sytuacjach gdy to procesor był wąskim gardłem, teraz będzie trochę wolniej - bo masz dwie karty a nie jedną - tylko tyle i aż tyle.
  8. focus_

    Ati Radeon Hd58xx

    To był tylko przykład, jeśli nie załapałeś. Co do Twoich doświadczeń w GTA IV - akurat w tej grze mnie nie zagniesz. Wszystko zależy od detali, ale Ty pewnie grałeś z "detail distance" na poziomie 55 lub wyższym :lol: Jeśli nie to racz się nie wypowiadać w tej kwestii. Tym bardziej, że to co dla jednego jest pełną płynnością dla innego jest dopiero elementarną. Sam o tym doskonale wiesz, bo przecież sam głosisz (z czym się całkowicie zgadzam), jak duża jest różnica między C2D 6 MB L2, a PDC 2 MB L2 w Crysisie i jak bardzo niepłynnie jest na tym drugim. Jeśli ja podczas zadymy potrafiłem zajechać i7 2,66 GHz do 18 FPS (w GTA IV), to znaczy że nie jest to w pełni komfortowe granie. A i7 2,66 GHz to jest mniej więcej C2D @ 4,7 ~4,8 GHz. i7 920 uzyskał w moim teście 35,6 FPS, zaś C2D @ 4,5 GHz uzyskał 33,2 FPS. Pamiętaj, że wraz z większą pojemnością pamięci na karcie graficznej możesz włączyć większe detale, które dodatkowo obciążają CPU. Jeszcze jedno Fire - dyskusja tutaj nie tyczy się tego, czy C2D wystarcza do gier czy nie wystarcza. Rozmawiamy tutaj o tym, czy do szybszej karty graficznej potrzebny jest szybszy CPU. O tym GTA napomnąłem tylko w formie odbijania piłeczki bo przecież to właśnie ja jestem największym orędownikiem mocnego 2-rdzeniowego CPU do gier zamiast słabego 4-rdzeniowca.
  9. focus_

    Ati Radeon Hd58xx

    Strasznie ciężko jest mi znaleźć taki krystaliczny przykład, ale może to Wam trochę rozjaśni w czym rzecz: Crysis Warhead DX10, test "baza" na Core i7 4 GHz. Po lewej będzie wynik z GTS'a 250, zaś po prawej z GTX'a 285: 640 x 480: 41,8 - 42,1 800 x 600: 38,2 - 42 1024 x 768: 32,1 - 41,4 1280 x 1024: 24,6 - 35,5 1680 x 1050: za słaby - 29 1920 x 1200: za słaby - 24,6 Oczywiście, nie należy patrzeć tutaj na bezwzględne wartości rozdzielczości - akurat nie miałem nic lepszego pod ręką. Niemniej Wasze sprawdzanie HD 5870 w 1280 x 1024 względem np. HD 4870 jest równie dobre, jak testowanie GTS'a 250 i GTX'a 285 w 640 x 480 w Crysisie i stwierdzenie, że Core i7 4 GHz jest za wolny do którejkolwiek z tych kart graficznych. --------------------------------------- Inne podejście do tematu Będę się opierał wciąż o wyniki powyższego testu. Załóżmy, że Wasze wymagania co do płynności to średnia 27-28 FPS. GTS-250 zapewnił ją Wam w 1024 x 768 i w takiej też rozdzielczości graliście na tej karcie w Crysisa. Kupujecie sobie GTX'a 285. I wciąż będziecie grali w 1024 x 768? Jesli tak, to faktycznie procesor będzie Was ograniczał (co widać w powyższych wynikach). Ale przecież Wasze wymagania co do płynności to około 27-28 FPS, a taką wartość zapewni Wam nowa karta w 1680 x 1050, a więc w tej rozdzielczości będziecie grać! Jeszcze raz to samo co napisałem we wcześniejszym poście. Porównujecie wydajność kart o zupełnie różnej wydajności w rozdzielczości charakterystycznej dla tej słabszej i na tej podstawie wyciągacie wnioski, że procesor ogranicza tą szybszą (analogicznie 1024 x 768 w teście zaprezentowanym powyżej). Dlaczego nie przetestować kart w rozdzielczości charakterystycznej dla karty szybszej (analogicznie 1680 x 1050 w teście zaprezentowanym powyżej)? Równie dobrze można by przeprowadzić test w jeszcze niższym trybie (np. w 640 x 480 jak w moim tescie) i by się okazało, że obydwie karty są ograniczane przez CPU, a trzeba pamiętać że mówimy o totalnej ekstraklasie w kwestii CPU oraz o jakby nie patrzeć średnio-niskim segmencie GPU (GTS-250). Robię ten poglądowy test, o którym wczoraj wspominałem i zrobię go na przynajmniej trzech ustawieniach CPU. Jeśli po nim dalej będzie takie gadanie, to ja nie wiem w jaki sposób mam mówić...
  10. focus_

    Ati Radeon Hd58xx

    Ale jeśli stanowi wąskie gardło na HD 5870, to i na HD 4850 będzie stanowił. O to się rozchodzi. Choćbyś jak kręcił C2D to do komfortowego grania w GTA IV nie wystarczy. Ale to tylko odbijam piłeczkę wypuszczoną przez Ciebie. Bo oczywistym jest, że w większości gier C2D 4,2 ~4,3 GHz będzie szybszy od i7 4 GHz. Naprawdę tak trudno jest przeczytać tamte wykresy ze zrozumieniem? Równoznacznie można zalinkować to: test procesorów i nawet na nieporównywalnie słabszej karcie wykazuje się nawet Core i7 4,3 GHz.
  11. focus_

    Ati Radeon Hd58xx

    Tłumaczyłem to już chyba dziesiątki razy, ale wciąż tylko garstka osób to łapie. Obsadzenie drugiej karty graficznej (czy to SLI czy Crossfire) powoduje oczywiście większe obciążenie procesora. Różnica zależy zarówno od gry, jak i od producenta GPU, jak i od sterowników. W końcu wychodzą sterowniki, które zmniejszają obciażenie CPU w konfiguracji multi-GPU. Z tego też względu trudno jest jednoznacznie określić o ile szybszy procesor jest nam potrzebny do konfiguracji multi-GPU żeby nie tracić wydajności w miejscach krytycznych dla CPU. Żeby uzmysłowić jak duże sa to rozbieżności przedstawię kilka wyników (biorę je jeszcze z platformy C2D 65nm @ 3,5 GHz) z HD 4870 X2 względem HD 4870: Assassin's Creed DX10: nie wiedzieć czemu większe obciążenie CPU jest po włączeniu AA, ale: bez AA jedna karta wyrabiała przeszło 62 (nie miałem wyniku z niższej rozdzielczości, ale w 1920 x 1200 było 57,5 a w 1680 x 62,4, a więc zapasu jeszcze trochę zostało), zaś X2 zatrzymał się na wartości 56,5 i koniec. Z AA pojedyncza karta robiła 47, zaś podwójna 42. Infernal (nie obsługiwany przez CrossFire): pojedyncza karta w teście "lotnisko" zatrzymywała się na wartości ~92 FPS, zaś podwójna na 78. Riddick (Crossfire działa): pojedyncza karta w teście (demo2) zatrzymywała się na wartości ~181 FPS, zaś X2 wyciągał max 174 FPS. World in Conflict DX9: w teście Inwazja jedna karta była w stanie zrobić jakieś 53 FPS, zaś podwójna na 49 się zatrzymywała WiC DX10 (to samo co wyżej): jedna karta to jakieś 44 FPS, zaś dwie na 42 zakończyły zabawę. Crysis (chyba najważniejszy), ale jednocześnie najtrudniejszy w badaniu ze względu na liczne wahania sterowników: a te w czasie jak testowałem HD 4870 X2 (jakiś miesiąc po premierze) działały wyjątkowo kiepsko. Żeby nie być gołosłownym: DX9 test Rescue: jedna karta wyrabiała nawet 62 FPS (niższej niż 640 x 480 nie było), zaś dwie zakończyły zabawę na... 33 FPS'ach, czyli praktycznie dwa razy niżej. DX9 Village: jedna: 42, zaś dwie karty: 26 FPS. DX10 Rescue: jedna karta dojechała do wartości 43 FPS, zaś dwie na 37 skończyły zabawę DX10 village: jedna: 37 FPS, zaś dwie na 33 zakończyły. Jak widać, trudno jest określić o ile ma być szybszy procesor po włożeniu drugiej karty. Czasem wystarczy 5%, a czasem trzeba... 50%, ale to już raczej wina sterowników. Zwykle więcej jak 10-15% nie potrzeba. I w tym kontekście: owszem jest potrzebny szybszy procesor do dwóch kart graficznych, ale przeciwnie do tego co twierdzą tutaj niektóre osoby będzie on potrzebny tak samo do dwóch HD 4830, jak i dwóch HD 5870 (zakładając oczywiście, że sterownik się będzie tak samo zachowywał w obydwu przypadkach). Kwestię pojedynczego GPU opiszę później.
  12. focus_

    Ati Radeon Hd58xx

    aha... ale pewnie dla dwóch GTX'ów 260 już nie?
  13. focus_

    Ati Radeon Hd58xx

    Skąd się u Was bierze przekonanie, że do szybszych kart graficznych potrzeba szybszego procesora? Bo w 1280 x 1024 w 3dśpiku uzyskujecie niewiele więcej FPSów na kartach, które do 99% gier wystarczają do rozdzielczości 1920 x 1200 AA-x4? Może po wsadzeniu szybszej grafiki nagle procesor wyrabia niższe wyniki?
  14. focus_

    Ati Radeon Hd58xx

    Ten 3-letni jest jak najbardziej aktualny. Nie chodzi o dobór procesorów czy kart graficznych, a o pewne relacje i zasady - te nie zmieniły się od tamtego czasu. Test procesorów, który zalinkował Kwasior to test procesorów, a nie badanie relacji między GPU, a CPU. Zresztą, mam chwilkę czasu i mam pod ręką GTX'a 285 oraz GTS'a 250, to zmacham kilka testów żeby pokazać, że nic sie nie zmieniło od tamtego czasu.
  15. focus_

    Ati Radeon Hd58xx

    Dla świętego spokoju takowy test zrobię, ale musisz pamiętać że test grafiki i w nim badanie poboru energii to nie badanie poboru energii w najbardziej energochłonnym wariancie pod kątem zasilacza. To, że np. korzystam w platformie z Core i7 @ 4GHz, wynika z jego wydajności a nie poboru energii. Inaczej to bym testował na Q6600 podkręconym na 3,5 GHz. Niemniej trochę wątpię w to by Twój zasilacz utargał taki zestaw - oczywiście pod warunkiem, że podkręcasz procesor. Jeśli nie to powinien podołać.
  16. focus_

    Ati Radeon Hd58xx

    Wiem, że działa, ale tych sterowników wtedy jeszcze nie było. Co do zmiany nazwy pliku exe, to jest to coś jak stosowanie sterowników beta - przeciętny gracz tego nie robi. Sam tego nie sprawdzałem, ale ponoć nie wygląda to najlepiej, prawda to?
  17. focus_

    Ati Radeon Hd58xx

    Do CrossFire niemal na 100% nie przy jakimś mocniejszym procesorze.
  18. focus_

    Ati Radeon Hd58xx

    Mówiąc "obciązam nie tylko kartę graficzną ale i procesor" miałem na myśli pomiar w miejscu w Crysisie takim, w którym byli zarówno przeciwnicy oraz wysoki poziom graficzny. Dla porównania na innej mapie miałem nawet 25W mniej. Zanim wybrałem miejsca poboru energii prześledziłem kilka gier pod kątem poboru energii i wybrałem właśnie Crysisa (test "baza") oraz GTA IV.
  19. focus_

    Ati Radeon Hd58xx

    No ale co Ci się nie zgadza? Ja sprawdzam pobór energii w czasie gry. Nikt normalny w czasie gry w Crysisa (żeby sobie pograć) nie puszcza w tle Linpacka. W Idlu są mniej więcej porównywalne wartości w okolicach 200W. W stresie oni stosują FurMarka, zaś my Crysisa / GTA IV i tutaj wyniki również sa porównywalne, bo okolice 330W. Co do moich pomiarów poboru energii na egieldzie. 9800 GTX pobiera więcej energii w idlu niż GTX-285! Różnica to o ile dobrze pamiętam 20 czy nawet 30W. Dodatkowo test który linkujesz na egieldzie składa się jednak z innych komponentów - wtedy podpinałem mniej dysków twardych a przede wszystkim sprawdzam na innym systemie i w innej grze. Z racji tego, że jest to test procesora to nastawiałem pobór energii głównie na procesor, a nie na kartę jak w przypadku testu grafiki.
  20. focus_

    Ati Radeon Hd58xx

    Ale to jest 3D Mark, który testuje cały komputer. Dodatkowo pomimo tego że zmieniłeś na szybszą kartę nie zwiększyłeś rozdzielczości. Więc, to że Ci brakuje CPU nie jest wynikiem jego brakującej mocy względem karty, tylko po prostu grafika w tej rozdzielczości dotarła do granicy procesora.
  21. focus_

    Ati Radeon Hd58xx

    Heh ;) Pobór energii, który wykonuję opiera się na obciążeniu nie tylko karty graficznej ale i procesora. Tyle, że procesor jedzie tylko na dwóch wątkach. W GTA IV wyniki są wyższe o około 20-25W.
  22. focus_

    Ati Radeon Hd58xx

    Mi trudno jest się wypowiedzieć na temat 50tki, bo jej w ręku nie miałem. Niemniej testy pokazują, że będzie to szybsza karta niż HD 4850 czy HD 4770. Teoretycznie testy w PL mają być w tym tygodniu co teraz będzie i my też mamy mieć recenzję na czas, więc chyba warto poczekać. Far Cry 2 wykorzystuje DX10.1 - może nie pro ATi, ale jednak wspiera technologię dostępną tylko w kartach ATi, a przez to działa na Radeonach szybciej niż gdyby DX'a 10.1 nie było
  23. focus_

    Ati Radeon Hd58xx

    @ MIchael86 - biję się w pierś. Źle popatrzyłem na schemat - zobaczyłem że do każdego kontrolera jest "przyklejony" RBE i nie zobaczyłem, że są przyklejone dwa takowe (dwie grupy po 4 RBE w każdym) w przeciwieństwie do RV770, gdzie jest po jednej takiej grupie. Już poprawiam. Przepraszam za pomyłkę. Czekałem az ktoś wywoła dyskusję na ten temat :) Co do NFS Shift, to bynajmniej nie jestem przekonany by ta gra wspierała PhysX'a. Na stronie nVidii nie ma o tym słowa, podobnie jak sama gra się tym nie chwali. Co do pozostałych gier PhysX. Batman to niewątpliwie jedna z najciekawszych gier tego roku i trudno żeby się ona tutaj nie znalazła. Cryostasis to coś jak Crysis - ogromne wymagania, bardzo ładna grafika, ale dyskusyjna fabuła itd. Niemniej dołączyłem też gry wyjątkowo pro-ATi, jak Clear Sky, H.A.W.X. czy Far Cry 2. Te trzy tytułu wykorzystują DX10.1. Niemniej jak najbardziej jestem otwarty na propozycje. Generalnie jestem w stanie testować na takiej oto liście gier: Assassins Creed Batman COD5 CoJ DX10 Jericho Colin DiRT COH Cryostasis Crysis DX9 Crysis DX10 Crysis Warhead Devil May Cry 4 ET QW Far Cry 2 FEAR EP GRAW2 GTA IV HL2: E2 Lost Planet DX9 Lost Planet DX10 Mirror's Edge NFS Shift GRID R6: Vegas STALKER CS Riddick Athena HAWX DX10 WiC SA DX10 Niemniej razem z resztą redakcji doszliśmy do wniosku, że taka liczba gier jaka została użyta jest w 100% wystarczająca i więcej tylko będzie przeszkadzać. Nic jednak nie stoi na przeszkodzie, by wyniki w innych grach prezentować tutaj na forum.
  24. focus_

    Ati Radeon Hd58xx

    Jeśli stać Cię na HD 5870, to się nie ma nad czym zastanawiać tylko brać. Proc nie będzie blokował, a jeśli to będzie blokował i słabsze karty graficzne, więc bez różnicy. Jeśli wystarcza Ci procesor do gier, to się nie ma czym przejmować. Procesor jak i karta graficzna wystarczają do gry bądź nie.
  25. focus_

    Ati Radeon Hd58xx

    Widzisz, gdybym przeprowadził testy na Core i7 3 GHz to wszystkie zamieszczone w teście wyniki miałyby wartości identyczne niezależnie od karty. Oczywiście pomijam testy zależne od CPU jak PhysX puszczony na Radeonie, bo de facto wtedy fizykę liczy właśnie procesor.
×
×
  • Dodaj nową pozycję...