Skocz do zawartości

Evil One

Stały użytkownik
  • Postów

    613
  • Dołączył

  • Ostatnia wizyta

Treść opublikowana przez Evil One

  1. Evil One

    Upgrade Komputera

    Miałem już nie pisać, ale nie mogłem się powstrzymać ... :lol2: O boy .... Co to są te Todomisie? Nie chodziło mi o rozbudowę kompa z AGP, a o obecną konfigurację, którą Ci tu polecają. Chodziło mi o to, że za te pół roku będziesz musiał i tak zmienić minimum kartę graficzną i być może procesor. Zapomnij, żeby w Gothic'u ustawić tak wysokie detale na kartach 7900GS. Na X1950PRO będzie trochę lepiej, ale nieznacznie. Na otwartej przestrzeni FPS będzie tu znacznie zjeżdżał w dół. Jeśli już tak się uparłeś na C2D to bierz pod uwagę, że za te same pieniądze miałbyś zestaw na AM2 z mocniejszą kartą graficzną. Różnica w cenie płyty : AB9 - KN9; różnica w cenie procesora : C2D E4300 - Brisbane X3600+. Pamięci Kingstona DDR2 667 są przy swojej niskiej cenie zaskakująco podatne na O/C - więc dlatego je polecam. Przy dobrym "zarządzaniu" kasą starczyło by Ci jeszcze na 8800GTS 320MB - tu już z max./90% detalami w grach, podejrzewam, nie było by aż takich problemów jak na 7900GS/X1950PRO. btw... Draco jeśli już kogoś cytujesz, to rób to w taki sposób aby można było się doczytać. Masz opcje quote do tego, lub CYTUJ - swoją odpowiedź pisz po znaczniku zamykającym cytat :mur: EDIT: Zestaw, który polecam za te pieniądze: AMD X2 3600+ Brisbane AM2 - 267zł Abit KN9 - 251zł 2x1GB Kingston DDR2 667 CL5 - 283zł Point of View GF8800GTS 320MB - 1099zł Co daje około 1900zł, w grach kładąc na "łopatki" zestaw na E4300, 7900GS oraz Patrioty 800-ki ;)
  2. Evil One

    Upgrade Komputera

    Te 300zł było podane w pierwszym poście. Stąd wziąłem, że zamiast dokupować pamięci, doradzono Ci aby wymienić całą platformę i za pieniądze za stary sprzęt oraz te 300 :-P zakupić coś znacznie wydajniejszego, oraz z nowszym socket'em pod procesor. Jeśli chodzi o mnie to już przestałem Ci doradzać, bo naprawdę ciężko skojarzyć o co Ci tak naprawdę chodzi? O podstawkę do przyszłego upgrade'u? :lol2: Dobra rada - najpierw zajmij się obecną konfiguracją, a na przyszłą rozbudowę znajdź czas za pół roku, kiedy i gry pod DX10 będą, i Vista będzie mniej zabugowana. E.o.S.
  3. Evil One

    Upgrade Komputera

    No tak, ale kiedy te procki się pojawią w komputerach "normalnego zjadacza chleba"? Na dzień dzisiejszy brałbym albo Brisbane, albo C2D z serii E6420. Pentium E oraz C2D E4300 nie posiadają wirtualizacji. Co nie zmienia faktu, że po O/C procesory na jądrach Core będą wydajniejsze od X2 AMD, jednak nie jest to wielka różnica. Dlatego, przy mniejszym zasobie funduszy postawił bym na AMD. Przy większym na C2D E6xxx. Wg. Draco "medium" nie wchodzi w grę :wink:, więc sam nie wiem, może nie polecać chłopakowi zestawu, na którym później w nowych grach będzie musiał zjeżdżać z detalami, przy okazji wytykając "pseudo speców" na PPC, że się nie znają i "wtopił" kasę w szrota.
  4. Evil One

    Upgrade Komputera

    Co to znaczy 500ram? - 512MB?, czy 500MHz na pamięciach? bo nie bardzo kojarzę :rolleyes: Z tego co wyczytałem chcesz dołożyć ok. 300zł do zestawu który posiadasz, sprzedając go. Czyli jak dla mnie, po lekturze tej jakże interesującej dyskusji, zbyt dużego wyboru nie masz. Co do "płaczu" nad wydajnością w przyszłym Crysis'ie (DX10), czy G3 to tak naprawdę nikt Ci z fusów nie wyczaruje super, hiper, mega wypasionej maszynki liczącej, która będzie działać na minimum 90%, jak to określiłeś, detalach. Nie bardzo rozumiem co do takiego tytułu będzie miał procesor Pentium E, czy Brisbane X2. Te procesory sobie i tak nie bardzo poradzą z kartą na poziomie 7900GS, czy X1950PRO na takich ustawieniach. A taki 8800GTX będzie się "marnował" nawet na C2D X6800 w rozdzielczości 1600x1200 Aniso16x i AAx4. Poprostu nie "wyskakuj" w topicu z takimi rzeczami jak zestaw do gry, której jeszcze nie ma. Oczekujesz, że ktoś Ci za niewielkie pieniądze złoży coś, co pozwoli Ci pograć niemal na full detalach, a jak będzie to procesor AMD to znaczy, że nikt się tu na niczym nie zna :lol2:; a jak Pentium E, to może C2D będzie lepsze... itd... Dla mnie, na obecny czas, zestaw który podał Ci joonior na Abicie AN9 i Brisbane jest jak najbardziej OK. Reszta zależy od karty graficznej oraz pamięci (2GB to tak w sam raz - Kingston lub GoodRAM DDR2 667, a dlaczego te nie inne nie chce mi się już pisać). np. S.T.A.L.K.E.R. - nie bardzo dopracowany, czasem niezależnie od rozdzielczości potrafi "łyknąć" ponad 500MB na tekstury :-|
  5. Czy ja wiem, czy tak dużo: 8800GTS 320MB około 1100zł, a możliwości nawet w DX9 o wiele większe od 7900GS/GTO/GTX przy AA + HDR, oraz w trybie aniso. :unsure: ale dlaczego, w ten sposób można czekać, i czekać, i czekać ... :wink: aż grę w która chcielibyśmy sobie pograć, w miarę komfortowo, pokryje kilka cm kurzu. Nie lepiej kupić sobie nawet teraz 8800GTS do tego Brisbane'a (podkręcić porządnie - jeśli będzie taka potrzeba) i te pół roku :blink: grać już, a nie czekać na cud w postaci G90/R650. Zawsze można taką kartę sprzedać np. w listopadzie, i nie sądzę aby aż tak drastycznie staniała. Co najwyżej 2.2/2.3 razy droższy - nie przesadzasz lekko? heh
  6. Ten Gigabyte (płyta) jest zdaje się na nForce3 i z AGP? K8NSxx to bardzo średnio udane płyty. Spróbuj zmienić mnożnik AGP na 4x, jeśli jest na auto, i wyłączyć Fast Writes. BTW... sprzedaj płytę i kartę na allegro jeśli nie będzie rezultatów i kup coś na PCI-E. --> Gregor rozwiązanie tego buga było podane chyba przy topicu Catalyst 7.3. Wchodzisz w ustawienia klawiszy dostępu i podajesz np. Ctrl+Alt+Y, po czym wyłączasz klawisze dostępu i restart. Oto efekt na moich CCC 7.4 "ććććććććććć...." :wink:
  7. Na samym końcu w ustawieniach (Advanced) tam masz m.in. dla Playback ustawienia 'Thread Priority' od 1-7 zwiększ i spróbuj czy się coś poprawi.
  8. Evil One

    Radeon Hd 2600 XT/Pro

    Czyli pewnie 256MB na GDDR4 i 512 na GDDR3. Niemniej 512MB na karcie po premierach kilku gier pod DX10 stanie się niechybnie koniecznością <_<. Widzę to np. po niektórych grach pod obecny DX9, porównując moje karty RX1300 256MB DDR2 i 7300GT 128MB GDDR3, gdzie przy detalach na max i Aniso x8/AA x2 karta z 256MB pomimo, że znacznie wolniejsza nie ma takich niskich minimalnych fps, i nie zapycha się tak jak 128MB.
  9. Dla mnie te pudełka wyglądają na oryginalne wersje filmów w formacie DVD/SVCD/VCD. Bo kto zadawałby sobie tyle trudu, aby do nagranych piratów kupowac pudełka, robić okładki i segregowac na pułce? :lol2:
  10. Evil One

    Lost Planet

    No i wypuścili grę, która w końcu nie pozwala mi nawet na próbę grania na najniższych możliwych ustawieniach: 640x480x32 All LOW/NONE BilinearFiltering. Wyniki lekko zabijają pod DX9. Na domyślnych ustawieniach benchmarka (1024x768) - Snow : 5FPS / Cave : 5FPS; po podkręceniu karty, oraz ustawieniach totalne minimum + 640x480 wypada - Snow : 14FPS; Cave : 16FPS, z tym, że w grze przy takich ustawieniach mam już 18-25FPS. Pixeloza straszna, grac się da, tylko jeśli ktoś uwielbia hardcore. Trzeba będzie przyspieszyć upgrade komputera :-|
  11. A uaktywniłeś w biosie tryb AGP Deep-FIFO? Opcja dla kart z mostkiem pośredniczącym (HSI, czy Rialto jak u Ciebie w Radeonie). Spróbuj jeśli tego nie zrobiłeś. Markus karty 8800GTS mierzą 23cm :-| - problem będzie "dłuższy" niż przypuszczałeś. Jeśli przepniesz kontrolery, to tylko przestaw urządzenie bootujące na ten kanał gdzie masz teraz dysk. System będzie działał bez problemu. Ale czy nie wystarczy nagiąć nieco kabelek SATA przy wtyczce od JMicrona?
  12. Miałem płyty na VIA i to nie jedną. Na nich SB Live CT4830 i SB0100 oraz Audigy 2 oem. 2 ZS miałem na SiSie; a później na nvidii przez krótki czas i ostatecznie na ULi. Więc nie zarzucaj mi kompletnego dyletanctwa. Trzaski na kartach Creative'a występowały na wielu chipsetach, ale montowanych razem z southbridge'ami VT82C686A i B oraz wcześniejszymi. Osobiście miałem taki problem z Live!'em i płytą VIA598 pod K6. Wystarczyło zainstalować nieoficjalny Latency patch i problem znikał. Późniejsze wersje sterowników VIA4in1 zawierały już niby tę poprawkę, więc generalnie nie trzeba było instalować jej dodatkowo. Tylko co to zmienia skoro KAX ma płytę na nForce'ie. I ja :wink:
  13. KAX na Audigy 2ZS trzaski? Miałem tę kartę dobre pół roku temu, i prędzej bym przechodzącą mrówkę usłyszał jak tupie niż jakikolwiek szum z tego Audigy :rolleyes: Druga sprawa na co Ci YouPax'y? Oryginalne sterowniki sprawują się wyśmienicie i obecnie mają taką samą funkcjonalnośc jak te od A4, więc nie widzę sensu kombinowania, chyba że po "jakąś cholerę" :wink: potrzebne Ci modowane od X-Fi; czyt. Crystalizer :lol2: Co do twojego problemu, to czy to samo się dzieje, kiedy kanały tylne nie mają dzielonego sygnału z przodem? tzn. te 2xstereo? U mnie pracowało to naprawdę dobrze karta SB0350, sterowniki oryginalne Creative + update'y oraz Foobar i ASIO output; tyle, że ja nigdy nie korzystałem z więcej jak 2.0/2.1 i nie będę korzystał, więc trudno mi powiedzieć, jak to się ma do obsługi przynajmniej 4-kanałów. Nie jestem pewien, czy karta A2ZS potrafi np. poprawnie korzystac z resamplera na 4-kanałach i więcej i ustawieniach 192kHz/24-bit. Zdaje mi się, że max dla takiej konfiguracji to 96kHz/24-bit. Latency na szynie PCI to albo 64, albo 32 - na starszych kompach. Z tym, że do odsłuchu tylko, do nagrywania to bieda, i chyba najlepiej kiedy jest jak najmniej. Najniższe stabilne to chyba 21, ale nie ustawiaj tego dla wszystkich urządzeń.
  14. G100 to już było - Matrox o wydajności i funkcjach 3D nieco lepszych od Virge'a :lol2: Prędzej G81 będzie już układem o dobrej wydajności pod DX10, i nawet nie przekreślał bym jeszcze GTS-ów i GTX-ów. Co do przyszłości, to chodziły słuchy, że następna zupełnie nowa generacja układów 3D, to nie będą "kolosy" zawierające w sobie np. 1mld trazystorów, a raczej kilka układów G90/R7(8)00 na jednej płytce PCB. Ma to być tańsze i prostrze rozwiązanie, a technologia Stream Processors ułatwia dobrą i wydajną obsługę takich rozwiązań.
  15. Chyba największym rozczarowaniem jest fakt, że na tę kartę czekac trzeba, pomimo że istnieje ona fizycznie i już nie tylko teoretycznie jest dostępna w sklepach. Pomimo tego, sam szum medialny wokół serii X2900 pozwoli uzyskac firmie trochę niedoinformowanych klientów już teraz, jako, że to nowośc, a na topie byc trzeba.
  16. Teoria jest taka, że 400-watowy zasilacz Chieftec powinien uciągnąc taki config bez zająknięcia. Tym bardziej, że ma 26A na linii 5V (procesory socketA na płytach bez wtyczki 4-pin) Ten Epox posiada jednak dodatkowe zasilanie sekcji procesora także z 12-ki, więc powinno byc chyba ok (dwie linie 14A i 15A). Ja mam natomiast doświadczenia tego typu, że przy starszych płytach, nieco starsze zasilacze (niby mocny NeoTEC 420W) sprawdzają się znakomicie, a już przy konfigu z nowszymi płytami nie dają rady. Bierze się to stąd, że dawniej nie stawiano tak na linię 12V, a "qpa" amperów szła właśnie na linię 5V. Przykładowo, także 350W "nowy" zasilacz Tracer nie pociągnął mojego konfigu, który jest widoczny w sigu. Po wyjęciu karty X1300 na PCI-E i włożeniu 4MB karty na PCI działało OK. Po zainstalowaniu karty AGP R9000 64-bit system wieszał się już co jakiś czas. Z Radeonem X1300 (przecież też wcale nie takim znowu 'power eaterze') uruchomienie systemu graniczyło z cudem. Jak już się udało, to komputer zawieszał się na ekranie logowania. Nie mówię, że może byc to wina zasilacza, ale istnieje taka możliwośc, jeśli karta okaże się sprawna.
  17. Temp. jak najbardziej normalne. Z tym że bliższa prawdy jest temp. z diody procesora, aniżeli z czujnika płyty. W Evereście masz obydwa odczyty. W normalnym użytkowaniu proc nie powinien przekraczac 50stC/ Powyżej 55 może już byc bardzo niestabilnie, w zależności od danego rdzenia.
  18. hahah ... good point; byłoby to ciekawe porównanie.
  19. Po co sprawdzac? hmmm... faktycznie najlepiej szukac rozwiązania od d..py strony , sorry ale nie mogłem się powstrzymac. Chłopie nie musisz miec podłączonego żadnego panela, a zworki mogą byc przestawione od początku. BTW... Czy Ty tego dźwięku nie masz od początku, czy poprostu "znikł" Ci w jakimś momencie grzebania w biosie / instalacji sterowników?
  20. hehe, przecież nie ma co porównywac X2900Xt do GTX-a, a bardziej do GTS-a 640MB. Większośc benchmarków wypada coraz to lepiej z poprawionymi sterami, a demo Lost Planet można narazie olac "ciepłym moczem". Karty nVidii są na rynku już ponad pół roku, ATi ma poprawnie działającą rewizję rdzenia R600 może z 3tygodnie/m-c. A do samego dema gry, która ukaże się w Lipcu (prawdopodobnie), seria 8800 miała dopracowane sterowniki rónolegle z wypuszczeniem benchmarka. Chyba nie ma co się podniecac tak tymi wynikami. Poczekajmy na stery od ATi pod to demko, wtedy będzie można napisac tekst w stylu "R600 is dead" :lol2:
  21. benchmark.pl:
  22. Evil One

    Radeon Hd 2600 XT/Pro

    W środowisku DX9c karta będzie niestety miec słabą/przeciętną wydajnośc, na ile mniejszą od 8600 trudno określic. Pod DX10 powinno byc lepiej od G84 jeśli oczywiście ATi napisze wreszcie jakieś nadające się do użyku drivery. 4 rop'y trochę zaczynają przypominac serię X1600 :unsure: a to dobrze nie wróży w grach w których "przewala" się duże ilości tekstur - np. STALKER.
  23. Ale beka ... 19 - 77 FPS (ATI - NV), w drugim 16 - 87 (ATI - NV) wyłączenie motion blur niewiele daje. poza wyostrzeniem obrazu. Przydałby się jakiś filmik z tych testów ponieważ na karcie nvidii na statycznych obrazkach wygląda trochę jak bez blur effect, filmik rozwiał by wątpliowości. Z tym, że X2900 znów zalicza totalną klapę w środowisku DX10 i demku pisanym pod NV.
  24. Evil One

    Radeon Hd 2600 XT/Pro

    To tak jak z poprzednimi seriami. Na początku były zapowiadane tylko XT i XL, czy XT i XTX, a później wchodziły wersje PRO/GT, aby zapełnic lukę w wydajności. Ale karty X2900 darujmy już sobie w tym wątku, aby niepotrzebnie offtopa nie robic. Gdzieś niedawno czytałem wywiad z kierownictwem ATi, że tym razem nie popełnią błędu i nie będzie luki pomiędzy kartami middle-low performace, a high i extreme performance. Wtedy załatano tę dziurę kartami X1650Xt i X1950PRO/GT dużo za późno i sami przyznali, że stracili potężną częśc rynku Coś mi się wydaje jednak, że nie tylko robią ten sam błąd, ale na dodatek zarazili tym pomysłem zieloną konkurencję :lol2: patrząc z przymróżeniem oka na wydajnośc 8600GTS względem 8800GTS. Oby tylko seria 2600 nie odstawała w takim dużym stopniu od 2800. Tyle, że po początkowej specyfikacji widac, że w DX9c karty będą raczej słabe, lub inaczej - przeciętne. Na wszystkie pytania odpowiedzą gry pod DX10.
  25. a od czego jest internet :blink:, przecież na stronie producenta napewno jest manual do płyty, czyż nie? ściągasz pdf'a i otwierasz go Acrobat Readerem, czy to takie trudne?
×
×
  • Dodaj nową pozycję...