Skocz do zawartości

BezbronnyPL

Stały użytkownik
  • Liczba zawartości

    785
  • Rejestracja

  • Ostatnia wizyta

Zawartość dodana przez BezbronnyPL

  1. BezbronnyPL

    Taki Sobie Zestaw ?

    kolego panterml ,zestaw ,który podałeś na początku jest dobrze dobrany z wyjątkiem pamięci. Proca możesz <span style='color: red;'>ORT: wziąść</span> PDC E2160,a potem przesiąść się na Penryn'a.Z drugiej strony Penryn vs Conroe ,to różnice w wydajności sięgające 5-10% , przy zmniejszonym poborze prądu, o zaledwie kilka wat(bardziej istotne przy dzisiejszych, grzejących się, Quadach). Także wybór E4500 nie jest zły , gdyż Pentium dual Core, muszą mieć zegar wyższy o 150-300Mhz żeby nadrobić różnice w wydajności.A już powoli widać ,że czym nowsza aplikacja, tym bardziej te różnice są widoczne(np. w UT 3). Płyta, którą wybrałeś to trochę wyższa półka niż Fox i MSI ,które to skierowane są do trochę innych użytkowników-czyli lubiących podłubać przy kompie,kosztem dodatków. W GB masz znakomitą dźwiękówkę(najlepszy obecnie układ zintegrowany na płycie) ,dodatkowy śledź eSATA z zasilaniem, optyczny i elektryczny SPIDIF ,6 -cio fazowe zasilanie . Pamięci -możesz wziąć Patriot LKK, jeśli nie znajdziesz kingstonów na elpidzie. Zasilacz, dobre i w dobrej cenie są Amacrox-> ten, z droższych możesz wybrać Corsair np.->ten Tylko musisz wiedzieć ,ze zasiłka o mocy większej niż 450W to raczej przerost formy nad treścią- jeśli nie budujesz SLI,Crossfire ,nie potrzeba takiej mocy.
  2. Bierz i nawet się nie zastanawiaj, nawet jeśli nie grasz.Komfort pracy znacząco się zwiększa,a ilość aplikacji wielowątkowych będzie tylko rosła(pomijam już te które od zawsze były wielowątkowe).Na zwiększenie wydajności w grach również możesz liczyć, są już takie, gdzie bez 2 jaj nie masz co ich odpalać.
  3. BezbronnyPL

    Windows Vista

    To jest podobna sytuacja, jak z mitycznym DX10 na WinXP ,którego nie ma i nigdy nie będzie. Ale i tak do wielu to nie dociera ,że implementacja DX10 w XP wymaga praktycznie przebudowy całego jądra ,czego Microsoft na pewno nie zrobi.A NV czy ATI/AMD teoretycznie dysponując narzędziami(OpenGL) również tego nie zrobią, chociażby dlatego żeby nie zadzierać z M$, a przede wszystkim, by nie pisać od nowa sterowników. Alky Project, często wspominany ,jest w tak prymitywnym stadium ,że zanim osiągnie(jeśli w ogóle) pełną funkcjonalność ,Vista czy jej następca będzie już w większości kompów . Na posty w stylu SP1 dla Visty jest rozwiązaniem na 4Gb w systemie(32bit), już nawet nie reaguje bo szkoda czasu-i tak zaraz ktoś wyskoczy z podobnym twierdzeniem. Od siebie dodam, że również zastanawiam się nad OS-em do drugiego kompa i obawiam się ,że Vista 64 bit ,chcąc nie chcąc, z perspektywy obsługi pamięci 4Gb + jest jedynym wyborem.Za rok 4Gb może być normalną ilością w całkiem przeciętnym, średniej klasy kompie.A nie po to inwestuje w RAM, by leżał odłogiem. Oczywiście mówię z perspektywy typowego usera , który używa kompa do wszystkiego ,w tym okazjonalnie- do pogiercowania. Martwi mnie jeszcze niemożność uaktywnienia SPDIF na Viście-prawda to?
  4. Witam wszystkich. Zauważyłem ,że ostatnio nasiliły się pytania "jak włączyć AHCI"?(chodzi oczywiście o NCQ).Postanowiłem podzielić się szybkim, i sprawdzonym sposobem. Jest o tyle wygodny ,że bez zabiegów z integracją sterowników, i co najważniejsze szybko, bez reinstalacji systemu, możemy korzystać z NCQ. 1. Ze strony intela ściągamy Intel Matrix Storage Manager->linky 2. Gdy dysponujemy już odpowiednim plikiem tj. iata76_cd.exe ,możemy dla ułatwienia wrzucić go bezpośrednio na dysk C: . Następnie: ->Start->uruchom->i używając przełącznika -a wypakowujemy plik -> C:\iata76_cd.exe -a. Wyodrębnione pliki, znajdują się w C:\Program Files\Intel\Intel Matrix Storage Manager. *Próba włączenia Instalatora bez "-a", zakończy się komunikatem, o niemożności znalezienia odpowiedniego urządzenia. 3.W w/w katalogu przechodzimy do Driver(lub driver 64 jeśli dysponujemy 64-bit OSem). Interesuje nas plik IaStor.sys, który kopiujemy do C:\Windows\System32\drivers\ Musimy go skopiować, do tego katalogu, więc lepiej sprawdzić dwa razy ,niż się pomylić. 4.Po skopiowaniu IaStor.sys , dodajemy AHCI_P3x.reg do rejestru(otwierając plik za pomocą notatnika, możemy oczywiście podejrzeć, jakie zmiany wprowadza). 5.Następnie restartujemy kompa, i wchodzimy do BIOS-u. Bardzo ważne! Nie dopuszczamy do uruchomienia Windowsa! W BIOS-ie zmieniamy opcję odpowiadającą za tryb pracy kontrolera z IDE(Disabled) na AHCI. Save&Exit. 6.Po uruchomieniu kompa, system znajdzie "nowe urządzenie".Anulujemy instalację, i instalujemy ręcznie Intel Matrix Storage. Po koniecznym restarcie, w menedżerze urządzeń zobaczymy: Intel® ICH9 port Serial ATA Storage Controller. Tweak :wink: sprawdziłem osobiście w kilka minut - działa(Win XP SP2). Znalazłem to niegdyś na jakimś zagranicznym forum, i z nawyku katalogowania ciekawych rzeczy ,zachowałem (niestety nie jako zakładkę-tylko txt). Wszystkie potrzebne pliki są w ahci_PurePC.zip,łącznie z iastor.Sys (wyodrębnione z instalki -dla nygusów). Dla starszych chipsetów bazujących na P965/975 jest odrębny plik rejestru-oczywiście załączony. Stery Intela i tak trzeba ściągnąć jeśli jakimś cudem ich nie mamy. Oczywiście należy dysponować płytą/chipsetem obsługującym NCQ. Jeśli sposób okaże się przydatny, można przykleić jako FAQ.Ale to już pozostawiam w gestii modów. Pozdrawiam! ahci_PurePC.zip
  5. IMO kupowanie 6400+, jest co najmniej nietrafionym pomysłem.Lepiej kupić jak najtańszy X2 lub ewentualnie, jakichś słabszy z cache 1MB na rdzeń. Szkoda ,że zapowiadana kompatybilność z podstawką AM2 jest mocno dyskusyjna.A to nie pomoże AMD, dodatkowo podkopując i tak słabnącą pozycję tego producenta. Teraz, sensowna obniżka cen wraz z niższą ceną platformy(cpu+mobo) o ok.250-300zł, mogłaby niejednego przekonać do zakupu pierwszego 4 rdzeniowca. Budżetowy Pentium dual core po OC ma porównywalną, bądź lepszą wydajność w typowych aplikacjach, i naprawdę ciężko znaleźć uzasadnienie do wydania 3x tyle na proca. Natomiast dla typowej "roślinki" kupującej w markecie, te 250 zł mogło by zrobić różnice.
  6. No właśnie o to toczyła się ostra dysputa w temacie o K10.NorthBridge- to kontroler pamięci czy też nie? Zwyczajowo znajduje się przecież w NB. Tylko NB zazwyczaj zajmuje się kontrolowaniem np. szyny PCI-E, więc nie jest jednoznacznie kontrolerem pamięci. W przypadku Phenoma- NB to cache L3, a "memory controller", to ten wbudowany w rdzeń.
  7. Kontroler Sil3112 ,czyli pewnie podłączony przez szynę PCI .Jeżeli masz jakieś urządzenia wpięte do PCI(karta dźwiękowa), możesz sprobować zamienić slot(choć to pewnie nic nie da), najlepiej zaktualizować BIOS płyty, gdyż często zawiera aktualizację kontrolera SATA.Ewentualnie sprobować przepiąć do innego gniazda SATA, być może obsługiwanego natywnie przez South Bridge.Choć wątpię ,żeby była taka możliwość. U mnie transfery są w granicach 90MB/s odczyt. Kontroler Sil3112 ,czyli pewnie podłączony przez szynę PCI .Jeżeli masz jakieś urządzenia wpięte do PCI(karta dźwiękowa), możesz sprobować zamienić slot(choć to pewnie nic nie da), najlepiej zaktualizować BIOS płyty, gdyż często zawiera aktualizację kontrolera SATA.Ewentualnie sprobować przepiąć do innego gniazda SATA, być może obsługiwanego natywnie przez South Bridge.Choć wątpię ,żeby była taka możliwość. U mnie transfery są w granicach 90MB/s odczyt. I zassaj nowszy HD tach.
  8. BezbronnyPL

    Penryn

    Nie wiem czy było-> Wolfdale .Jak widać z testów ,różnica wydajności między c2d a nowym układem intela jest rzędu średnio 3%.Zużycie energii również nie jest dużo niższe, względem Conroe. Także dopiero w aplikacjach korzystających z SSE4 ,można liczyć na wyraźne polepszenie osiągów oraz pewnie w grach.
  9. O ile dobrze pamiętam cache L3 i kontroler działa z maksymalną częstotliwością 2Ghz niezależnie od taktowania pozostałej części układu.
  10. BezbronnyPL

    Ati Radeon HD3850/3870

    Widzę,że lubisz powtarzać obiegowe opinie.Ale do rzeczy-czym różnią się poszczególne procesory które współdzielą ten sam rdzeń?Odpowiedź -różnią się tylko mnożnikiem.Kiedyś procesory miały odblokowany mnożnik, dopiero po jakimś czasie producenci zaczęli stosować blokady.Jest to najprostszy sposób na maksymalizacje zysków,gdyż pozwala, za ten sam produkt -tylko wyżej pozycjonowany- naliczyć wyższą cenę.Przy okazji ,pozwala pokryć swoją ofertą możliwie najwięcej segmentów rynku ,oraz zagospodarować całą produkcję-nawet tą mniej udaną. Co do OC.Tak się składa ,że wszystkie kompy jakie miałem były podkręcane(CPU i grafika) Riva TNT, GF2 GTS,GF3Ti,GF4Ti itd, a najlepsze jest to ,że większość z tych części sprzedawałem wśród znajomych/rodziny, i moge zapewnić ,że np.Duron 700@8xx chodzi do dziś- u kuzynki (na VIA KT266). Duron "Morgan" 1.2Ghz @ 1,4 Ghz, po operacji zmiany mnożnika ołówkiem i magistrali @ ~266 działa również do dziś- w kompie kumpla(płyta GB na KT333).U sierżanta z wojska działa A.XP 1600+(Palomino) @ 1,900+ na Nforce 2.Moj stary Barton 2500+ chodzący na 2-2,1 Ghz chodzi również do dziś. Także dopóki podkręcasz z głową ,dbasz o chłodzenie , nie dajesz przesadnie wysokiego vcore by uzyskać 100Mhz więcej(np.do równego zegara by ładniej wyglądało ) :wink: ,to nie ma co się martwić o żywotność procesora, czy karty grafiki. Wiesz, akurat przesiadłem się z X2 3600+ Brisbane@2,9Ghz i Abita Kn9, i mogę z ręką na sercu powiedzieć ,że obecny zestaw jest wydajniejszy.Gdybym miał X2 z 2x1024Kb cache L2@3000-32000 Mhz , to pewnie kompa bym nie zmieniał. Teraz można kupić płytę za ok 250zł(Gigabyte na P31)i cieszyć się darmową wydajnością po zmianie FSBz 200 na 266 lub 333-odpowiednio 2, lub 3 pacnięcia w klawiaturę. Chyba,że chcesz mieć marketingowo nośną PCIE 2.0+ kilka procent wydajności ,zamiast 10-20% wyższej wydajności z CPU, za te same pieniądze. Wrost wydajności z PCIE2.0 ,jeśli nawet będzie odczuwalny ,to w niszy rynkowej jaką jest Crossfire i SLI, czyli stosunkowo rzadko spotykanych konfiguracjach. CFx czy SLI mają sens, jeśli spinasz możliwie najszybsze karty -czyli max wydajność dla entuzjasty grającego w wysokich rozdziałkach+eye candy. Konfiguracja ze słabszymi kartami, jest opłacalna tylko w pewnym przedziale czasu, i najczęściej przed premierą nowych układów : <_< W innym przypadku, zawsze lepiej mieć jedną,ale wydajną kartę.
  11. BezbronnyPL

    Ati Radeon HD3850/3870

    Zysk wydajności dotyczy kart 256MB na pokładzie .IMO kupowanie teraz karty z tak niewielką ilością VRAM , to dyplomatycznie ujmując- lekkie nieporozumienie. Przy 512MB różnica PCIE 1.1 vs PCIE 2.0 wynosi ok 3%, także jest całkowicie pomijalna. Trochę więcej ->Crossfire test X38vP35, nie wiem czy już to było ale podaje w razie wątpliwości. Test przeprowadzony na Radeon 2900, widać różnice.Tylko ciekawy jestem ile osób zaopatrzy się w crossfire?Bo jest to jeszcze mniejszy margines graczy, niż stosunkowo dopracowany tryb SLI. Radzę nie sugerować się pojedynczym testem w jakiejś aplikacji.Chcąc odnieść moją padakę(E2160 @2666Mhz) do wydajności innych CPU, przejrzałem sporo testów, i możesz wierzyć lub nie, ale przy tak niskim zegarze, który jest osiągalny chyba dla wszystkich E2xxx,procesor ten ma wydajność w grach odpowiadającą X2 6400(czyli 2x 1024Kb L2), lub ~C2D E6600 .Przy czym, i tak w wielu aplikacjach, jest od X2 wyraźnie szybszy. A podkręcanie do takiego zegara trwa kilka sekund ,więc argument -"nie podkręcam"- w przypadku nastawienia się na kompa do rozrywki, jest trochę naciągany. Wspomniany E6420 jak dostanie tylko ~300Mhz pożre każdego X2 na śniadanie. Co do HD38xx, no musze przyznać ,że całkiem poważnie myślę o chociażby 3850, bo za tą cenę jest to zaskakująca dobra oferta.Miałem na celowniku 8800GT ,ale polityka NV ,raczej nie pozwoli w najbliższym czasie kupić tej karty w normalnej cenie. Przyznaję ,że jestem ogólnie miło zaskoczony serią HD, i po raz pierwszy jestem bliski kupna czegoś od czerwonych(zawsze odstraszały mnie sterowniki i często dyskusyjna wydajność). Szkoda tylko ,że dostępność tych kart to jakaś kpina.Mamy na ryku niemalże "papierowe" karty.
  12. Jakichś tydzień temu The Inq podawał informację(na marginesie innego newsa),że płyta powinna posiadać BIOS z kością 8Mbit, w przypadku 4Mbit Phenom działać nie będzie. Miałem slajd AMD z taką info ,ale już mi gdzieś wcięło. Aby wstępnie ocenić kompatybilność z mobo, trzeba sprawdzić rodzaj użytej kości BIOS.Podejrzewam ,że budżetowe mobasy mogą nie załapać się na Phenoma,za to co szczęśliwsi userzy droższych płyt prawdopodobnie wsiądą do "Phenomenalnego pociągu". Jakichś tydzień temu The Inq podawał informację(na marginesie innego newsa),że płyta powinna posiadać BIOS z kością 8Mbit, w przypadku 4Mbit Phenom działać nie będzie. Miałem slajd AMD z taką info ,ale już mi gdzieś wcięło. Aby wstępnie ocenić kompatybilność z mobo, trzeba sprawdzić rodzaj użytej kości BIOS.Podejrzewam ,że budżetowe mobasy mogą nie załapać się na Phenoma,za to co szczęśliwsi droższych płyt, prawdopodobnie się załapią.
  13. Widze ,że rozgorzała dyskusja nt. kompatybilności mobasków z k10.IMO nawet bez zmiany BIOSu , Phenomy powinny śmigać bezproblemowo, pomijając HT3.0 i osobne taktowanie każdego z rdzeni.Co najwyżej będziemy mieć podczas POST komunikat "unknown processor"jak było z Bartonami w wer.mobile . Inny przykład, to stosowanie notebook-owych procków, na zwykłych płytach, z zastosowaniem przejściówek. Na przykładzie K10 i ich niskich częstotliwości bazowych, można wysnuć wniosek ,że AMD ma jeszcze kłopoty z procesem 65nm. Na potwierdzenie tego, można podać przykład rdzenia Brisbane .Tutaj->linky,pewien wnikliwy osobnik doszedł do bardzo ciekawych wniosków. W skrócie -procesory AMD ,szeregowane i oznaczane są, według zdolności do całkowitego wyłączania tranzystorów.Innymi słowy, zachowują się jak nie całkiem wyłączona żarówka, pobierając oczywiście prąd - i to całkiem sporo! Bo najgorsze sztuki w 65nm mają pobór sporo wyższy niż najgorsze w 90nm "@1.1V, they are drawing almost 50% more current than AMD's worst 90nm part" Także wspomniane 3,5Ghz wydaje się raczej mało prawdopodobne...
  14. Nowe proce AMD jednak do mnie nie przemawiają.I już nawet nie chodzi o wydajność, która w przypadku 4 jaj, jest aż nadto wystarczająca dla przeciętnego usera.Widać ,że AMD ceni swoje proce, ale sądzę ,że rynek szybko zweryfikuje cenniki. Dla entuzjasty śledzącego branżę IT, wybór Phenom vs Penryn jest dość oczywisty. Ale dla całej masy klientów, kupujących w mniejszych, lokalnie działających sklepach,wybór tańszego 4 rdzeniowca, byłby dobrym wyborem.Tymczasem forsując takie ceny-wszak Phenom to w końcu nowość- może okazać się ,ze zawsze kojarzony z wysokimi cenami Intel będzie tym lepszym(bo tańszym)rozwiązaniem. A szkoda ,bo to AMD pod strzechy przeciętnego Kowalskiego wprowadził wydajne procesory, w normalnych cenach.AMD w ogóle zaprzepaściło szansę na zdobycie większej części rynku, forsując absurdalnie wysokie ceny swoich X2.Być może, wynikało to z niskich możliwości produkcyjnych, ale fakt jest faktem -firma AMD na własne życzenie zafundowała sobie ostrą ripostę Intela. Teraz jest już raczej za późno, Intel kontroluje sytuację ,w każdej chwili, jest w stanie wypuścić CPU szybszy od Phenoma. Na pocieszenie pozostaje fakt ,że posiadacze X2 mają wyraźną i pewną ścieżkę upgradu ,a i same płyty mogą być wyraźnie tańsze od mobasów Intela. X2 z zegarem ~3Ghz(oprócz nieszczęsnego Brisbane) wystarczają naprawdę do wszystkiego, i to nawet dla wymagającego użytkownika.Entuzjaści zawsze znajdą sobie jakichś obiekt westchnień. Ale niebezpieczeństwo dla AMD stanowi opinia.Opinia entuzjasty/eksperta, bo często ta decyduje o wyborze.A na chwilę obecną Intel przoduje w niemalże wszystkich aspektach, a przede wszystkim w dwóch podstawowych -wydajność i zużycie energii.Jeśli dodamy do tego OC ,to mamy pełny obraz trudnej sytuacji AMD.Także trudno oczekiwać, by znawcy tematu polecali Phenoma , co na pewno przełoży się na pozostałe CPU AMD z niższej półki Czyli mamy sytuację jak przed kilkoma laty - gdzie proce amd w obiegowej opinii to grzałki ,mniej wydajne od intela i gorzej się podkręcające. Oby tak nie było...
  15. BezbronnyPL

    Pci Express Gen. 2

    Pewnie sporo zależy od producenta mobasa np. FAQ Asusa->linky "As PCI express 1.0/1.0a standard is not compatible with PCI express 2.0 specification, installing PCI express 2.0 cards onto PCIEX16_2 slot will result in system fail " Znalazłem listę wszystkich mobasów kompatybilnych z PEG 2.0 ,ale amba fatima- nie mogę tego odszukać. :? pozdro!
  16. BezbronnyPL

    Pci Express Gen. 2

    O ile dobrze pamiętam, to płyty z PCI_E v 1.0 i z 1.0a nie są kompatybilne z PCI-E v2.0. Szczegółów specyfikacji należy szukać w manualu lub na stronie producenta mobo.
  17. Faktycznie chyba sobie daruję , poczekam na tym sprzęcie do nowych CPU intela,a tymczasem można dołożyć do RAM-u czy ewentualnie grafiki. Gwoli ścisłości Vcore mam na 1,35V . Ale najlepsze jest to, że proc praktycznie w ogóle się nie grzeje.Zakładałem chłodzenie(HP-100) ze 2 razy i za każdym razem radiator jest lekko ciepły. To samo chłodzenie na X2 znacznie bardziej się nagrzewa,pomimo tego ,że proc pracuje na niższym napięciu 1,3V. Czyli uzyskałem procesor wydajniejszy o 10-20%(chyba bardziej odczuwalna różnica w tym przedziale, niż z 3,0Ghz @ 3,3 i więcej Mhz )a przy tym, znacznie mniej się grzejący (radiator NB ma wyższą temp. niż ten od CPU).
  18. No ja z kolei trafiłem niezłą padakę(M0).Na defaultowym Vcore robi zaledwie 2666. :angry: Co prawda tyle mi wystarczy,ale liczyłem na tyle przy niższym od standardowego napięciu, z opcją szybkiego OC typu 9x333 z domyślnym vcore.Do 2,8ghz już trzeba lecieć z napięciem powyżej 1,4V co już mnie dostatecznie dobiło, więc nie chcę sie już wq... Teraz zastanawiam się czy pozbyć się tego proca i kupić selekta, czy przeżyć te 8x333 .Bo z tego co widzę-a przeleciałem multum przeróżnych testów, ze różnica pomiędzy 2666 a 3000Mhz jest czasem śmiesznie niska, niby procentowo aż 20%, podczas gdy w rzeczywistości daje to zalewie 2-3 klatki czy kilka-kilkanaście sekund w kodowaniu audio/video.Nie wspominam już np. o UT 3 czy Orange Box gdzie wystarczy zaledwie 1,6Ghz(dla C2D) do uzyskania ~90FPS. Te 3Ghz nie daje mi spokoju, :? ale s drugiej strony rozsądek podpowiada ,że to nie ma sensu. Na pocieszenie pozostał fakt ,że drugi zestaw tj.KN9+AMD x2 @2,8/2,9 Ghz dostał po tyłku...
  19. Mi nic nie piszczy , przy napięciu rzędu 1,5V bo do tylu sprawdzałem.Poza tym, nowe proce od Intela będą miały mniejszy pobór mocy, z racji niższego procesu technologicznego. A co do Penryna-> na 100% będzie działać wersja biosu F7b dodaje ich obsługę. A tu jest lista wszystkich mobasów obsługujących nowe proce->Motherboard Compatibility for Wolfdale and Yorkfield Processors
  20. BezbronnyPL

    Zestaw Za 800 Zł !

    Jako posiadacz zarówno duetu Kn9 i brisbane 3600 + po OC ,jak i e2160 +p35, napiszę parę słów jak się te zestawy mają do siebie. Wydajność w XP X2@ 2,8Ghz i E2160@2,66(póki co), jest dość porównywalna i różnice na korzyść Intela nie są jakoś druzgocące-choć zauważalne np.w kompresji zip/rar ,czy video. Ale to, co zdecydydowanie rzuca się w oczy ,to różnice w grach. Sprawdziłem w kilku demkach jak sprawuje sie E2xx .I tutaj sprawa jest oczywista,Intel deklasuje AMD.Nie chodzi o średni i maksymalny FPS, ale minimalny i odczuwalną różnicę w płynności gier. Np. w DiRT(demo->1024x768 all @high ,cienie medium MSAA x2,FAx4) na trasie z Buggy, podczas pierwszego zakrętu(skupienie wszystkich oponentów) FPS spadał zawsze do poziomu ok 23-24 kl/s.Co więcej nagły zjazd z większej wartości był bardzo odczuwalny-po prostu dyskomfort. Na E2160@2666Mhz ,FPS minimalny to w tym samym miejscu 31kl/s. Ogólnie podczas wszystkich tras jest sporo i odczuwalnie płynniej. To samo W UT3 demo(1440x900 ,post processing Vivid,reszta def) ,na każdej mapie różnica w minimalnym FPS również oscyluje w granicach 10FPS, czyli zamiast min.28-31 FPS jest 39-40 .ok.30% różnicy przy zegarze 2666(8x333)! To tylko dwa przykłady.Bardziej szczegółowych testów nie przeprowadziłem , wiec tylko dzielę się pierwszym wrażeniem. W obecnej chwili, gdy na Intela można kupić niezłą MoBo do 300PLN,a do ok 450PLN można prawie że przebierać, to zakup AMD jest całkowicie pozbawiony sensu. O ile X2 ,z cache L2 2x1024KB z zegarem 2,8-3,0(+) Ghz ,lub inny X2 z mniejszym cachem, w najnowszych grach daję radę i spokojnie na takim CPU można poczekać do Phenomów, to już X2 Brisbane niekoniecznie . Jednocześnie, zakup wysoko taktowanego X2 typu 6000+ jest kompletnie nieopłacalny(ale to akurat wiedzą wszyscy siedzący w temacie PC) . Podsumowując jako posiadacz Intela i AMD , mogę z czystym sumieniem odradzić X2 .
  21. RT-> power user->system->zaznaczasz ptaszkiem 2 opcje i ustawiasz wartość 1. Pierwsza opcja to "NVAPI ShaderClockControl" , druga NVAPI Usage Behavior". Po tym uzyskujesz dostęp do dodatkowego suwaka (Link Clocks).
  22. Pierwsze co powinieneś zrobić to update Biiosu(choć nie chce mi się wierzyć ,że masz taki stary->F1 ?). W zaawansowanych ustawieniach dot. pamięci możesz zmienić" High speed dram dll settings" na option 2. Płytkę mam od 2dni więc chociaż tyle mogę podpowiedzieć.
  23. Miałbym taką sugestię, żeby kolega chcący jak najniższym kosztem zmienić kompa pomyślał o Mobo ze zintegrowaną grafiką.IMHO to znacznie lepsze niż kupowanie na siłę oddzielnie grafy .Zmniejszyło by to koszty o 80-100zł, co pozwoli dołożyć tą sumę do płyty. Nie ma sensu pchanie się w stare rozwiązania, najlepiej pozbyć się AGP, DDR za jednym zamachem, i zostawić stare za sobą. Bo może się okazać ,że za jakichś czas, wpadnie Ci trochę grosza , i znowu staniesz przed dylematem-sprzedawać? Zmieniać proca na duala itd,itp. Także moja sugestia:mobas na LGA775 ,najtańszy CPU na ten socket(Celek 4xx),sprzedać DDR1 i kupić DDR2(różnica w cenie jest spora-możesz na tym dobrze wyjść) . Zaoszczędzić możesz na ilości ramu- ten zawsze można dokupić. Druga opcja to mobas na AM2 z integrą, ponieważ możesz liczyć na nieco lepszą grafikę .Ale jeśli chodzi o wydajność,to upgrade procesora z jakiegoś A64 na dwurdzeniowca przyniesie mniejszy zysk wydajności niż przesiadka z Celerona 4xx na C2d czy E21xx. Lepiej na czymś zaoszczędzić teraz i wybrać z głową, niż za jakichś czas przeżywać podobny dylemat .Takie rozwiązania jak Asrock Dual SATA to półśrodki,które sprawdzały się ok.rok temu,teraz przy tak niskich kosztach np.dwurdzeniowych CPU i modułów DDR2, nie ma sensu inwestować w stare.
  24. BezbronnyPL

    Crysis

    Odpalałem CPU benchmark i średnie obciążenie wygląda 85/85 ,i w miarę równo rozkłada się na dwa rdzenie.W grze-z tego co zauważyłem-obciążenie jest nieco niższe i z reguły wygląda 90/45 (CPU0)/CPU1). średni FPS to 32 (max.42)w rozdziałce 1180x coś tam( bench korzysta z ustawień w grze, więc raczej należałoby sprawdzać w 1024x768) Najbardzij zadziwia mnie Cevat Yerli (czy jak on tam ma), ponoć gra miała być w największym stopniu zależna od CPU ,a jest dokładnie odwrotnie,giera zarzyna najpierw GPU i praktycznie tylko manipulacja ustawieniami grafiki pozwala na uzyskanie większej ilości FPS. Na pocieszenie można napisać, że wiele efektów jest trudno zauważalnych i bawiac się plikami ini ,można będzie poustawiać grafę do posiadanego sprzetu i upodobań.Bo osobiście wystarczy mi np.włączony parallax mapping, ale kosztem innych efektów(np.sun shafts, czy refrakcja).Tak samo być moze uda sie zostawić tylko mapy cieni ,a dynamiczne cienie częściowo wyłączyć(zawsze to lepiej niż cienie na low). Ale zgodzę sie z innymi ,tą grę trzeba zobaczyć w pełnej krasie -inaczej nie oceni się całości pracy włożonej w Crysis.Za 2 lata gra nie będzie już robić takiego wrażenia. A tu nieco o wydajności CPU w demku->firingsquad
  25. BezbronnyPL

    Gears of War

    Chodzi mi o to ,że w porównaniu do UT3 czy innych tu wymienionych, te produkcje rodem z konsoli działają kiepsko,co znowu nie oznacza, źle .Da sie grać, tak jak napisałeś Med high-może nawet większość na High ,ale najczęściej kosztem rozdzielczości(i paru FPS mniej).Wiesz ,że na LCD z niższa rozdziałką obraz sporo traci :-| Proponuje zajrzeć na Beyond3D i poczytać zanim zaczniesz pisać ,że czegoś nie da się porównać.Da się ,ale nie jako porównanie samych GPU(za bardzo się różnią) tylko ich wydajności, którą można odnieść do dzisiejszych kart graficznych.Specyfikacja jest znana i to ,co nie jest pod NDA zostało już omówione i wyjaśnione. Na korzyść konsoli przemawia zamknięta architektura, co pozwala na rożne tweaki i ciągłą optymalizacje.Ale to każdy wie, wiec nie ma sensu ponownie poruszać tego tematu. A żeby nie było offtopu porównanie gamplay na X360 i PC-najpierw parę minut X-pudło potem PC z komentarzem(ang.) ->linky Zapowiada sie smakowita nawalanka(w przeciwieństwie do efektownego ale w sumie nudnego Lost Planet).
×
×
  • Dodaj nową pozycję...