Skocz do zawartości

BezbronnyPL

Stały użytkownik
  • Liczba zawartości

    785
  • Rejestracja

  • Ostatnia wizyta

Zawartość dodana przez BezbronnyPL

  1. BezbronnyPL

    8800gs Czy 9600gt

    Otóż to-to tylko tydzień.Jak 8800GS będzie równy 9600GT -na co się zapowiada, to nie zmieni to faktu ,że są to karty porównywalne. Z tymże potencjał OC może być większy w 9600GT. Inna sprawa ,że NV projektuje swoje chipy na drodze symulacji, i są w stanie określić wydajność nowego GPU zanim będą dysponowali działającym prototypem. Dlatego nie ma co liczyć ,że dostaniemy coś extra od NV.Dostaniemy tylko, tyle by wybrać ich produkt, zamiast konkurencji(AMD/ATI).9600GT ma walczyć z HD3850/3870 więc można założyć ,że będą szybsze od nich o kilka-kilkanaście %.
  2. BezbronnyPL

    8800gs Czy 9600gt

    Nie grożę.Jeśli tak to odebrałeś ,to przepraszam. Zwróciłem Ci tylko uwagę ,że tutaj przysłowiowy "kowalski" ze swoimi niczym nie popartymi teoriami nie znajdzie poklasku. Ot co.. Chodzi o to ,że każdy trochę rozgarnięty ,jak dobrze poszuka, może znaleźć sporo ciekawych informacji, przedstawić je wszystkim itd. itp, tylko sztuka polega na wyciąganiu właściwych wniosków z tychże info. A żeby je wyciągać to raczej 5min googlowania w poszukiwaniu odpowiedzi by odpisać na forum nie wystarczy. No i już wiesz o co mi chodzi kolego AlienMks
  3. BezbronnyPL

    Geforce 9600 GT / GSO

    np. Beyond3D :wink: edit ->linky
  4. BezbronnyPL

    8800gs Czy 9600gt

    Wiesz co ? Co jak co, ale na tym forum,specjaliści od marketingu są odstrzeliwani jako pierwsi- to po pierwsze. Po drugie, jeżeli uważasz ,że są tu ludzie którzy nie mają pojęcia o czym piszą , to raczej nie powtarzaj tego zbyt często ,bo może ktoś bardzo szybko sprowadzić Cię na ziemię. Nie uważam ,że 8800GS był złą kartą- IMHO jest świetna za tą cenę,ale w perspektywie 9600GT ,który ma premierę za tydzień , to chyba warto się tyle wstrzymać się te parę dni? Co innego gdyby premiera była za 3 miechy, wtedy nawet bym się nie zastanawiał, tylko łykał 8800GS. 9600GT pomimo bazowania na 8xxx, może przejść mały tuning architektury podobnie jak za czasów GF68xx -> 78xx, więc wstrzymałbym się z oceną, do premiery .
  5. BezbronnyPL

    8800gs Czy 9600gt

    Ja poczekam , gdy zobaczę testy porównawcze(lub sam porównam). 96 SP vs 64 robi równicę, ale z tego co znalazłem, karty mają niemalże identyczną wydajność.Na korzyść 9600GT przemawia lepsza wydajność w wyższych rozdziałkach(pomijam ,że i tak nie grywalnych) ale może to sugerować ,że 8800GS ma poważne wąskie gardło w postaci węższej szyny i/lub mniejszej pamięci. Sumarycznie, może to oznaczać ,że tylko na papierze wygląda fajnie,a w rzeczywistości okaże się ,że inżynierowie NV ,skroili coś o bardzo określonej wydajności-bez jej zapasu. Póki co -daje na wstrzymanie ,ale raczej jestem za 9600Gt . Nie chciałbym kupić przejściowego produktu ,który może być w przyszłości niski priorytet, w razie pojawienia sie -ewentualnych- błędów w sterownikach. Chociaż na stery NV generalnie nie ma co narzekać, to wolałbym być po "pewniejszej" stronie->9600GT. Ale drugiej strony, posiadanie 8800GS, to jak posiadanie limitowanej edycji :D , więc ...może.
  6. Frostytech recka a TU ich metodologia.W skrócie -lekko mnie zagięła, oceniają nawet ziarnistość/gładkość spodu coolerów w/g specjalnej skali :? .Nie wspominam już o komorze do badania głośności ,oraz stanowisku do badania wydajności radiatorów- 85W/150. łał
  7. Na Twoim miejscu sprawdziłbym pamięć -najpierw Memtest ,do wstępnej oceny(z reguły na testach 4-6-8 wypadają błędy), potem GoldMemory do gruntownego przetestowania. Generalnie, takie dziwne zachowania są trudne do zdiagnozowania,bo to może być wszystko.W takich przypadkach, na pierwszy ogień sprawdzałem zawsze DRAM. Jak coś wyjdzie (choćby jeden błąd) ,to wiadomo -żonglerka modułami w slotach ,podwyższanie napięcia itd. Musisz po prostu po kolei zdiagnozować kompa.Gdy okaże się, że moduły są ok.sprawdź CPU-może podnieś nieco Vcore,ewentualnie przestaw z auto na manual(nie zmieniając wartości V). Wyłącz wszystkie nieużywane rzeczy na płycie -porty LPT/COM, dodatkowy kontroler SATA(ten od GB/Jamicrona). Najgorzej będzie z grafiką,ale tę zostaw na koniec jak już wyeliminujesz wszystko po kolei. tyle na szybko-przed snem.
  8. Krótkie objaśnienie nazw płyt GB na przykładzie P35(z x-bit labs) . -S series, co oznacza Smart, Speed, Safe w skrócie : 3S-> GA-P35-D S3 - w przypadku obecności literki D w nazwie, D jak "durable" , płyta posiada -między innymi- polimerowe kondensatory na całej płycie ->GA-P35-DS3 -litera S może być użyta z cyfrą 4 oznacza użycie do chłodzenia rurek Heat-pipe( płyty oznaczane S4) -> GA-P35-D S4 -litera P od "pair" oznacza obecność 2 złączy PCI-E do kart grafiki->GA-EP35-DS3P -litera R na końcu nazwy oznacza obecność RAID( czyli chipsetu ICH9R) -> GA-P35DS3 R -C z kolei od "combo" ,oznacza obecność slotów DDR3-> GA-P35 C -DS3R -obecność litery T od. "three" oznacza ,kompatybilność z modułami DDR3 -płyty z oznaczeniem L od "lite" , to najprostsze wersje(obcięte zasilanie CPU, porty SATA) Jeśli chodzi o Rev 1 i 2 ,to rev 1 mają porty LPT i COM z tył płyty, oraz dodatkowo śledź e-Sata. Natomiast rev2 zamiast tego mają USB(imho lepsze rozwiązanie, oczywiście o ile ktoś nie potrzebuje tych starych portów). Teraz ,pojawiły się najnowsze rewizje ,które potrafią -dzięki załączonemu oprogramowaniu-wyłączać fazy zasilania CPU.Pozwala to na niewielkie oszczędności energii w IDLE,rzędu 6-9W-czyli tak naprawdę, to bardziej marketing niż przydatna funkcja,ale IMO ciekawa rzecz.
  9. BezbronnyPL

    Zestawik Do Grafiki...

    Weź jeszcze pod uwagę DFI LAN Party LT X38-T2R , to co wyróżnia tą płytę ,to przede wszystkim cyfrowe zasilanie CPU(8 faz), co oznacza ,że doskonale sprawdzi się podczas długotrwałych obciążeń.Osobiście stawiałbym DFI nad proponowanymi Asusami,gdyż ostatnimi czasy ,mobasy tej firmy już nie reprezentują jakości, z której zawsze słynęła.Co prawda trudno uznać za reprezentatywną grupę forumowiczów, niemniej płyty tej firmy bywają problematyczne. Co do Foxconna-mnie ,po przeczytaniu topicu o tych płytach, zdecydowanie odeszła ochota na "związanie się" tą firmą(mam wrażenie ,że o ile robią niezłe płyty, to nie bardzo potrafią je okiełznać czego wynikiem są dość kiepskie BIOS-y) . Inną propozycją jest nieco tańszy Abit IX38 QuadGT(także z cyfrowym zasilaniem). Ale miej na uwadze ,że niedługo pojawia sie płyty na "nowych" chipsetach x48.Chyba ,ze kompa kupujesz teraz ,to wtedy bez znaczenia.
  10. BezbronnyPL

    Geforce 9600 GT / GSO

    W/g dostępnych i pewnych info, max.95W (czyli realnie trochę mniej). Nie przewiduję ewentualnych problemów po podłączeniu do mojego Chiefa(10A+15A), ale myślę o czymś mocniejszym(choć przede wszystkim z myślą o zasiłce oznaczanej 80+ ,czyli o dużej efektywności).
  11. BezbronnyPL

    Ati Radeon 3870 X2

    Jak widać po testach, miało być pięknie wyszło jak zwykle.Problemem ATI/AMD jest fakt ,że są/byli przez długi czas o blisko pół roku- do roku, spóźnieni w stosunku do NV. Radeony 2900 , powinny być na poziomie dzisiejszych HD3870, ale rok wcześniej.Do tego czasu "poprawiono by sterowniki" i ATI w konfrontacji z NV miałaby czym walczyć. Teraz, czerwoni mieli swoje pięć minut , korzystając z niewielkiej podaży 8800GT, udało im się wstrzelić czasowo w dobrym momencie i zgarnąć trochę rynku.Idąc za ciosem ,przygotowali X2 ale jak widać, reinkarnacja RAGE FURY MAXX nie jest pozbawiona wad i nie zachwyca. Riposta NV jest szybka i skuteczna.Masowa dostępność 8800GT, i związany z tym spadek cen pozwala sądzić ,że X2 zostanie tylko ciekawostką.Pewnie znajdzie wielu nabywców,ale pozostanie kartą niszową. Komu można polecić ATI X2? Komuś kto gra w kilka gier ,w których Radeon(y)radzą sobie nieźle, ewentualnie tym ,którym zależy na UVD, oraz tym którzy mają ściśle określony i nieprzekraczalny budżet na kartę graficzną.W Każdym innym przypadku lepiej dołożyć do produktów NV.Płacimy więcej za wyrównaną wydajność i raczej bezproblemowe sterowniki. Proponuje przejrzeć testy Rage Fury MAXX- pierwsze z brzegu. ->frazPC ->firingsquad Choć zawsze można poczekać na nowe sterowniki... :D (zawsze jest nadzieja ,ze przy wsparciu ludzi AMD mogą zdziałać więcej).
  12. BezbronnyPL

    Grand Theft Auto 4

    gta4 reklamy Jak nie cierpię marketingowców, tak muszę przyznać ,że pomysł genialny :D
  13. Na tej płycie mamy wpływ na wydajność nawet po zmianie STRAP-a . Co prawda zmian nie dokonuje sie ustawiając STRAP na sztywno 200/266/333 ,tylko odpowiada za to opcja "Static tRead Value" .Regulacja do 1-20(domyślnie ustawiona na bodajże na 12).Jeżeli dobrze pamiętam ,to we wcześniejszych biosach była nazwana tRD.Ale już nie pamiętam, po której aktualizacji zniknęła wraz z inną opcją-(...)DRAM Settings[option1/2].Właśnie po aktualizacji zwróciłem na to uwagę, gdyż dobrze pamiętałem , że te opcje były . Zmiana Static tRead Value czyli tRD, to Performance Level w MemSet(opcja odpowiedzialna za szybkość dostarczania informacji, z pamięci przez MCH do CPU, przez FSB).Dzięki temu, mamy możliwość wybrania niższego Performance Level ,niż domyślnego w trybie AUTO .Podczas zabaw z FSB powyżej 417, gdy strap przełącza się na mniej korzystny równy 400 co = tRD 12 ,możemy przywrócić większą wydajność. Ale zmiana Static tRead Value wymagać będzie zwiększonego V na MCH. Opcja Performance Enhance (3 poziomy) zmniejsza właśnie tRD,czyli jest jakby fabrycznym presetem GB. EDIT Nie zauważyłem ,że może mieć wpływ na napięcie dla pamięci.Czyli jak widać te presety są nawet nieźle przemyślane. Zmiana na Extreme u mne nic nie daje.Napięcia i niektóre timingi mam ustawione ręcznie.
  14. Myślisz ,że o tym nie wiem? :wink: Tylko że przejście z Banias -> Core,to zwiększenie IPC z ~3 na ~4 .Chyba nie trzeba wspominać jaki to wpływ na wydajność.CPU AMD przeszły podobny lifting, dodając usprawnienia sprawdzone u konkurencji, plus oczywiście własne.Niemniej wydajność zegar w zegar jest, i będzie niższa, właśnie ze względu na niższy IPC.Tego sie nie przeskoczy, chyba ze mamy szybszy niż konkurencja zegar.Ale na to AMD nie może liczyć. Trzeba wspomnieć, że nie wszystkie aplikacje reagują na wyższy IPC, lubiąc standardowo-> MHz.Czym więcej tym lepiej. Jeśli Phenom ,który jest nieraz wyraźnie szybszy od X2(porównując zegar w zegar ) przejdzie kolejne usprawnienia-być może w następnej rev. cache L3 będzie pracował z zegarem CPU, i dopieszczą jeszcze kontroler -może okazać sie,że jednak daje radę. Ale na pobicie Core nie ma co liczyć. Nie ma co wchodzić w dyskusje na temat, która architektura jest nowa a która nie.Gdyż korzenie najnowszych CPU Intela i AMD sięgają kilka generacji wstecz. I linky->TwojePC
  15. Zacznę od końca. Problemem AMD jest niski współczynnik IPC, który ma decydujący wpływ na przewagę architektury Core. AMD od zawsze w rywalizacji z Intelem podkreślało że "nie zegar jest najważniejszy " itp.Zresztą AMD nie może, i nie mogło nigdy rywalizować z Intelem na polu wielkości pamięci podręcznej L2, czy też zegarów. Remedium na nawiązanie walki na polu pamięci cache, było zintegrowanie kontrolera pamięci w CPU. Rozwiązanie ryzykowne ale i genialne w swojej prostocie, okazało się świetną bronią przeciwko dużej pamięci L2 w CPU Intela.Jednocześnie pozbycie się archaicznej szyny FSB, na korzyść szeregowej magistrali HT było świetnym, i zresztą jedynym sensownym, dopełnieniem wbudowanego kontrolera.Dodatkowo , szyna HT pozwoliła na szybkie połączenie wielu procesorów ,co miało ogromne znaczenie w wieloprocesorowych serwerach. IPC(instrukcje na zegar), to właśnie ten wskaźnik ,oraz krótszy potok wykonawczy +dość efektywna predykcja rozgałęzień kodu, spowodowało ,że Pentium 4 praktycznie nie liczyło się przez długi czas w konfrontacji z Hammerem(choć trzeba przyznać ,że w niektórych zastosowaniach P4 radziły sobie całkiem nieźle). No i co się stało? Ano to ,że zamiast produkować fajne, kolorowe slajdy z prezentacją "naszych wspaniałych przyszłych technologii" jak to ostatnio robi AMD ,Intel opracował nową architekturę tam, gdzie miał największe zaległości względem konkurenta.IPC, zużycie energii,a dodatkowo i powiększył swoją przewagę na polu pamięci Cache , nie wspominam już o tym ,że C2d mogą pracować z zegarami przynajmniej 1Ghz szybszymi ,na szczęście dla AMD intel, po tą broń jeszcze nie sięga(nie musi). Zaznaczyć trzeba jak Phenomy "działają" na podstawce AM2...choć duża w tym zasługa producentów płyt. Wniosek z tego taki ,że dopóki AMD nie poprawi wskaźnika IPC, nie ma szans w rywalizacji z Intelem.Gdyż w innych dziedzinach ma szansę na równą walkę. No i zostaje marketing. Niestety obecna sytuacja tej firmy jest też wynikiem katastrofalnego marketingu tej firmy, porównać to można do "osiągnięć" Sony i bandy jej marketingowców, odpowiedzialnych za PlayStation 3.Z tą różnicą,że ci marketingowcy stracili już pracę ,podobnie jak osoby odpowiedzialne za PR.Efekty już są ,choć PS3 rywalizacji na polu konsol next-gen na pewno nie wygra. Póki co, panowie z AMD mają pecha(bład TLB) ,ale na pewno powalczą.Jako przykład mogą służyć karty HD3850/70-prosty i skuteczny kop w jaja Nvidii w najlepszym momencie ,gdyż NV, na sezon przedświąteczny nie miała praktycznie żadnej sensownej oferty dla przeciętnego gracza,a dostępność 8800Gt była mocno dyskusyjna. 8600GT/S , które nigdy nie grzeszyły wydajnością, nie mogą rywalizować z HD3850, i to w momencie wysypu wielu niezłych gier.Podobna sytuacja jest z HD7870X2 ,które być może zagrozi nowej "kanapce" NV . Ten biznes jest strasznie wrażliwy na nawet drobne potknięcia rywala, każde jest bezwzględnie wykorzystywane, i każde może zmienić obraz rynku IT w kilka miesięcy.AMD jest w dołku, to fakt, ale trójrdzeniowe Phenomy mogą poważnie namieszać, być może 4 rdzenie staną się powszechne, szybciej niż sądzimy (co nie znaczy ,że będą w pełni wykorzystywane).Być może ktoś(NV?) przejmie AMD...i będziemy światkiem najlepszego połączenia od czasu nForce2 i Athlona XP?Ale to nie na temat. A Phenom?Znajdzie sobie miejsce,z dobrą ceną ,z dobrym chipsetem i płytą znajdzie nabywców na 100%.Tylko niech będzie szeroko dostępny. Aaa i jeszcze do osób, które twierdzą ,że monopol oznacza ,iż będziemy kupować Celerony po 500-1000zł.W takim razie zadam pytanie - -czy kupiłybyście Celerona za tą sumę? :D I testy UT3 na Anandtech-jeden rdzeń wystarcza? UT3
  16. BezbronnyPL

    Call Of Duty 4: Modern Warfare

    No niezupełnie ,gdyż m14 wciąż jest używany .Często wybierany jest przez strzelców wyborowych drużyny, czy też przez jednostki specjalne i służy do prowadzenia celnego,nękającego ognia. Z racji kalibru(7,62) pociski mają zdolność do penetracji przez niektóre przeszkody.Wersja M21 to już typowy karabin snajperski. M14 doczekał się najnowszej odsłony->m14 EBR mp44 to raczej ciekawostka,choć krajach afryki można ją spotkać. A tu taka ciekawostka-ten filmik zainspirował twórców CoD4, jest dostępny w kilku wersjach i dopiero po zagraniu w cod przypomniałem sobie ,że gdzieś już to widziałem... ac-130 "Spectre" gunship
  17. No to teraz ciekawostka.HP-100 umocowany w ten sposób, że wiatrak wieje w tył obudowy, gdzie jest wentyl wyciągający , dawał mi tempy rzędu 73* w Stress.Zmieniałem pasty, nakładałem na rożne sposoby czyli pasek wzdłuż IHS jak nakazuje instrukcja na stronie Arctic ,lub rozsmarowanie na całej powierzchni.Nic,zero zmian.I ? Obróciłem pentka tak, by wiatrak dmuchał w stronę zasiłki(do góry).Rezultat-temperatury niższe o średnio 10-15*,Żeby było śmieszniej ,przy pierwszym montażu myślałem, że zapinka od HP-100 opiera o radiator NB, stąd takie wysokie temp.Poprawiłem obracając wiatrak o 90 stopni i rezultat jw. czyli różnica 10-15*.Dopiero jak wyjąłem mobo z budy postanowiłem sprawdzić czy rzeczywiście zapinka zawadza, okazało się ,że nie.Zmieniłem proca i sprawdziłem znowu, czy sposób zamontowania ma wpływ na temp.e2xxx.Sytuacja się powtórzyła.Wniosek jest taki ,że HP-100 lepiej sprawdza sie gdy radiator umieszczony jest szerszą częścią skierowany do dołu obudowy, a nie do jej boku.Sądziłem ,że rurka heatpipe styka się na większej długości rdzenia, stąd takie ogromne różnice, ale jak zobaczyłem ,że E2140 ma kwadratowy rdzeń a nie prostokątny, to trochę zwątpiłem w tą teorię.Tak czy inaczej -proponuje sprawdzić.Moja wersja HP-100 ,to ten z czarnym , ponoć lepszym koszykiem(bardzo silny docisk do CPU). IHS prosty-w obu procach.
  18. To jest właśnie vdrop, czyli różnica pomiędzy ustawieniem w BIOS a realnym, odczytywanym przez programy(często dość dobrze ukazujące rzeczywisty voltarz ,który oczywiście najlepiej sprawdzić miernikiem).Vdroop, to z kolei różnica pomiędzy napięciem w spoczynku a obciążeniem.Spadek ten jest przewidziany i wymagany przez specyfikacje Intela,dotyczącą zasilania CPU .Nie jest to żaden skutek uboczny, tak ma być, a to że niektórzy producenci umożliwiają wyłączenie tej funkcji(Load Line Calibration ), lub sami overclockerzy robią vdroop mody, wynika z błędnego zrozumienia idei tego rozwiązania. Zmieniając V ,w BIOS nie ustawiamy tak naprawdę napięcia docelowego, tylko ustawiamy maksymalne.Układy zasilający procesora, muszą zapewniać ciągły dopływ prądu, i to niezależnie od obciążenia.W chwili ,gdy obciążenie zmieni sie z bardzo dużego ,do minimalnego w ułamku sekundy, vdroop ma zabezpieczyć CPU przed nagłym, niekontrolowanym skokiem napięcia, powyżej wartości ,którą ustawiliśmy. Dlatego niejako prewencyjnie, rzeczywisty voltaż jest mniejszy .Gdyż układ zasilania CPU, nie jest wtedy niepotrzebnie obciążany co wpływa na żywotność płyty i CPU, oraz zużycie energii. Szczegółowo jest to omówione na AnandTech. W chwili obecnej jest to chyba najlepszy art w sieci traktujący o szczegółach zasilania CPU-niestety po ang. pozdro
  19. Powitać. A ja mam dość dziwną sztukę E2160. VID 1,325 :angry: , ale na 2,66Ghz(8x333) chodzi sobie na 1,27x w BIOS->vdrop 1,248->vdroop->1,216.Max tempy pod Orthosem 50*(TAT 2-3* więcej). Ale co dziwne już na 3Ghz(8*375 lub 9x333) wymaga 1,4375 w BIOS->vdrop 1,401->vdroop 1,376. tempy 66* w stress. Jest bardzo duży przeskok napięć ,jak na dodatkowe ~233Mhz.Zresztą już na 2,8Ghz trzeba znacznie podnieść Vcore,ale nie chciało mi się sprawdzać o ile. Na 3,2Ghz (8x400) potrzeba 1,5V BIOS->vdrop 1,45->vdroop 1,44.Tempy ponad ok.73* Tempy sprawdzane w najnowszym Everest(beta) oraz TAT, pokazują zbliżone pomiary. Poprzedni e2160,który przy tym samym VID potrzebował na 3Ghz 1,5V BIOS->vdrop 1,45 V->vdroop 1,44V. Na 2,66Ghz potrzebował realnie 1,31(pod obciążeniem).Temperatury na obydwu CPU identyczne.Ponieważ miałem okazje wymienić ze stratą 20zł. na inny egzemplarz ,stwierdziłem ,że warto zaryzykować.Co prawda 2,66Ghz mnie zadowala, ale docelowo na możliwie najniższym Vcore(zawsze chłodniej i ciszej).
  20. Trujesz zamiast poszukać patrz tu->xtremesystems, popatrz na sygnatury gości w wątku o serii płyt p35Gb, akurat na tej, konkretnej stronie ktoś już kupił najnowszego Wolfdale i 4Ghz z kopa. Tu ->anandtech forum, także możesz spojrzeć, 3,4-3,6 Ghz to raczej standard. Mógłbym -ale już mi się nie chce szukać -rzucić linkiem gdzie ta płytka GA-P35C-DS3R o kilka zaledwie ułamek procenta jest wolniejsza od , konstrukcji specjalnie opracowanych z myślą o OC jak np. Asus Maximus i innych na X38(zajęła konkretnie drugie miejsce). Generalnie niechęć do GB objawia się głównie z tego ,że w wielu "PRO" zestawach rodem z Vobisu (jak Quad + 8600Gt )znajdują się płyty GB -najczęściej G33, a raczej nikt nie chce mieć zestawu z marketu. Poza tym popularność MSI czy Foxa wynika z faktu ,że mają dobre ceny i płacisz za to co chcesz, bez wrażenia ,że i tak nie będziesz korzystał z wielu dodatków. Różnice między płytami, sprowadzają sie do detali, różnice w wydajności są najczęściej pomijalne.Jeśli jednak nastawiasz się głównie na OC , MSI czy Fox są nieco pewniejsze, gdyż z tego co widzę nieco łatwiej wymusić na nich OC.Szczególnie dotyczy to Pentium Dual Core , które są dość kapryśne(FSB wall, temperatury ,częstsze dual booty,dziwny mnożnik 7, na którym nie można się zbytnio pobawić w OC). Jeśli planujesz C2D to IMHO nie ma to zbyt dużego znaczenia, być może na innych modelach osiągniesz 100-200Mhz max więcej,ale jeśli nie planujesz startu w konkursie OC , to nie ma przecież aż takiego znaczenia. Osobiście jakbym miał wybierać teraz płytę , to pomijając GB brałbym np. P5K-E/ WIFI-AP, ewentualnie MSI neo2 FIR.DFI Blood Iron mnie kompletnie odrzuca(fuj), Fox-bo nie(bez przyczyny), zostałby jeszcze Abit IP35-mam sentyment do Abita.
  21. BezbronnyPL

    Która Lepsza ?

    Co do wyboru karty ,osobiście mam wewnętrzny opór przez radkami,choć ATI/AMD ma naprawdę ciekawe rozwiązania, to NV ze swoją brutalną wydajnością i poziomem sterowników-choć poważne wpadki ze sterami też mieli- jednak bardziej mnie przekonuje. IMO HD3850 512 MB ,to dość dobry wybór dla kogoś niezdecydowanego , w razie niezadowolenia strata mniejsza.Jak możesz dołożyć do 8800GT to weź-nie będziesz później żałował " mogłem dołożyć -poskąpiłem, a teraz już myślę o wymianie". Co do płyty Gigabyte-w zasadzie już się wypowiadałem .Moge tylko powtórzyć ,że płyta stoi o oczko wyżej niż polecane MSI czy Foxy, ale jest też skierowana do nieco innego odbiorcy, bardziej zorientowanego na stosunek cena/wyposażenie, niż cena/możliwości OC. Jeśli lubisz dłubać w kompie(OC), masz czas na sprawdzanie najlepszych ,najwydajniejszych ustawień to produkty MSI /Fox są dla Ciebie,chcesz wycisnąć wszystkie soki z CPU/pamięci to jest to świetny wybór. Jeśli wolisz Mobo w stylu "wystrzel i zapomnij "( od Hellfire) tzn. ustaw raz i używaj(szybkie OC bez zorientowania na absolutny max) , to weż GB. Ogólnie nie jestem pewien ,czy jest jakikolwiek sens brania GA-P35 C -DS3R (z obsługą DDR3) gdyż posiadając np.4GB DDR2 raczej nie będziesz ich wymieniał na 4GB DDR3 -prędzej zmienisz całą platformę gdy zajdzie potrzeba.Zresztą o ile dobrze pamiętam Nehalem będzie działał też z DDR2(na jednej z trzech podstawek). Co do płyty: -niezły layout(oprócz złącza IDE),brak fikuśnych i często zbędnych heat pipe-ów. -6 faz zasilania CPU(niższe temperatury okolic podstawki), co prawda nie ma co specjalnie wywyższać zalet 6(czy więcej) fazowego zasilania ,gdyż jest ,to raczej przydatne przy OC dzisiejszych Quadów.Z kolei przyszłe CPU intela, o kodowej nazwie Penryn, mają niższe zapotrzebowanie na prąd, co ooznacza ,że standard- czyli 4 fazy ,wystarczą w zupełności. -wszystkie potrzebne wej/wyjścia (SPIDIF,Tos-link) oprócz FireWire. -śledź e-sata z zasilaniem( rev.1) -wyśmienita dzwiękówka.I tutaj parę słów, gdyż wielu twierdzi, że tylko samodzielne karty są warte uwagi.Tu akurat podłączyłem Audigy 1 (pożyczone), oraz posiadane SB Live 5.1 Digital.I? O ile nieznacznie polepszyła się dynamika i wyrażnie tony niskie(potężniejsze), to jeśli chodzi o muzykalność to integra tego GB jest dużo ...lepsza.Słuchałem(pliki we FLAC) na Sennheiser PX-100 i Kosss Porta Pro, czyli obecnie na najlepszych słuchawkach, do sprzętu przenośnego ,które doskonale sprawują się jako słuchawki do PC. Fantastyczna przestrzeń,niezłe brzmienie- SB poszły do szuflady.W grach SB(EAX HD), to jednak fajna rzecz, ale SB do muzyki -niekoniecznie. Dla porównania, na Abit KN9 integra Realteka, to zupełnie inna liga(czyt.druga) -niezły support, BIOS zmieniałem już 4 razy(choć bez wyraźnej potrzeby). -RAID( dzięki ICH9R) Problemy? Jedyny to , kłopoty z zainstalowaniem zintegrowanej dzwiękówki -ale zażegnany po kilku minutach. Tyle ode mnie.
  22. BezbronnyPL

    Co Zmienic?

    Kolego Vojti, nie słuchaj bredni o rzekomym ograniczaniu Twojej grafy przez CPU, bo Crysis, zarzyna każdą obecnie produkowaną kartę grafiki. Najlepsze co możesz zrobić ,to poczekać do nowej generacji GPU, bo kombinacje ze SLI pod "koniec" życia serii 8xxx to dość ryzykowna inwestycja. A jak ma się wydajność CPU w Crysis? ->Linky. Jak widać w rozdziałce w której grasz, c2d z zegarem 2133 sprawdza się niemalże równie dobrze jak C2d 3000Mhz . Choć trzeba zaznaczyć ,że zawsze lepiej mieć 3Hz niż ~2,.Niemniej wysoki wskaźnik IPC Core 2 Duo powoduje ,że nawet przy niższych zegarach ich wydajność jest wystarczająca. W Crysis powyżej 1280x1024 zdecydowanie pierwszym, i najważniejszym czynnikiem decydującym o wydajności, jest karta grafiki i w pierwszej kolejności, trzeba pomyśleć o niej.Dopiero SLI z 2 8800GTX/Ultra warto połączyć z jak najszybszym CPU.Quad jest tu zbędny-w tej produkcji nic nie daje.
  23. BezbronnyPL

    Crysis

    Muszę się z tym zgodzić, choć trzeba zauważyć pewne pozytywne aspekty, ukazania się tej gry. Jest to w tej chwili najbardziej zaawansowany engine na rynku, ma to oczywiście swoją cenę-ogromne wymagania.Ale w przypadku Crysis , przynajmniej widać ,że ma to swoje uzasadnienie.Praktycznie wszystkie nowinki 3D prezentują się w pełnej krasie-oczywiście na odpowiednim sprzęcie.I żaden z obecnych silników graficznych nie może sie równać z CryEngine2. Słaba sprzedaż na pewno wiąże się z tym co napisałeś -niepotrzebne nawiązanie do DX10 i Visty, zwłaszcza ,że nowe API prezentuje się na razie zupełnie odwrotnie do zamierzeń, a i Vista nie jest jakoś specjalnie lubiana. Z tym ,że trzeba zwrócić na ogromny potencjał marketingowy tego tytułu.Ten producent ,który zaoferuje kartę grafiki pozwalającą na zabawę @HIGH za dobre pieniądze(czyt.-jak najtaniej),może sporo ugrać .I nieważne czy Crysis będzie dobrze się sprzedawał czy nie, to ryzyko bierze na siebie wydawca. W światku graczy, o tytule jest głośno, i niezależnie od tego czy komuś podoba się produkt Crytecha , czy też nie, na pewno zwróci uwagę na słupki z wykresem wydajności, nowej karty graficznej w tej grze.Właśnie tu jest wartość marketingowa Crysis. Coś, co sprawdzi się w niemieckiej produkcji, z b.dużym prawdopodobieństwem sprawdzi się w każdym nadchodzącym tytule. Zwłaszcza ,że za sobą mamy już głośne premiery -przede wszystkim UT3 i Cod4, ET:QW,STALKER i inne.W nadchodzącym czasie, nowy engine graficzny zaprezentuje Carmack, no i jest jeszcze Alan Wake. Można powiedzieć ,że chyba jak nigdy wcześniej ,zakup karty grafiki-NOWEJ generacji dla Crysis pozwoli nam cieszyć się znacznie dłużej z zakupu.Nawet jeśli wcale nie mamy zamiaru w to grać. Pozdrawiam i ... hepi nju jer :D
  24. BezbronnyPL

    7950gt -> Quadro

    Z tego co wiem seria 7xxx jest niemodowalna (za wyjątkiem jakichś modeli przeznaczonych do laptopów). Co prawda nie interesowałem się już dawno tym tematem(kiedyś zmodowałem GF3/4 i 6600GT rec A2 na PCI-E), ale nie przypominam sobie by w temacie serii 7 coś się zmieniło. Jak coś , info szukaj na forum guru3d.com w sekcji Riva Tuner.
  25. BezbronnyPL

    Taki Sobie Zestaw ?

    kolega bolus nie pisze na labie, tam znajdzie poklask. EVGA w porównaniu do wspomnianych tu płyt(wszystkich ) ,to tandeta jakich mało.Nie bierz tego, chociażby dlatego ,że nie wsadzisz tam Penryna, sami przedstawiciele NV przyznali ,że o ile aktualizacja BIOSU teoretycznie pozwoliłaby na obsługę najnowszych CPU Intela ,to niestety problem pozostaje w budowie płyt(y), która musi mieć przeprojektowane ścieżki. A na tej stronie masz najnowszy test najnowszego dziecka NV ,który został złojony przez P35->Linky Cytat: "You see, while nForce 600-series chipsets are compatible with Intel's latest Penryn-based CPUs, current motherboard implementations are not. The incompatibility runs deeper than what can be addressed with a simple BIOS update, as well—a board-level circuit change is required." Pod względem wydajności dysków, LAN, poboru energii ,nowy produkt NV rozczarowuje. Aaa, i test zostały przeprowadzone na kilku mobaskach ponoć shitowatego GB(zresztą na AnandTech i paru innych również testują na GB). Akurat nie jestem zwolennikiem żadnej marki-kupuje to co w danej cenie można kupić najlepszego.A tu P35-DS3R(rev.1) wyróżnia się na + w stosunku do innych płyt,które są typowymi przedstawicielami średniej półki jak MSI czy Fox(a takie DFI Blood Iron zahacza o low end-patrząc na layout płyty). Inna sprawa ,że płyty każdy powinien mniej więcej dopasowywać do swoich potrzeb(rozszerzenia, dodatki,chłodzenie itd).
×
×
  • Dodaj nową pozycję...