Skocz do zawartości

BezbronnyPL

Stały użytkownik
  • Postów

    754
  • Dołączył

  • Ostatnia wizyta

Treść opublikowana przez BezbronnyPL

  1. BezbronnyPL

    Gears of War

    Fakt iż PC w końcu dogoni możliwości nowej generacji konsol jest oczywisty.Zawsze tak było i będzie, z reguły po 1,5 roku najdalej po dwóch PC oferują identyczną bądź lepszą grafę, to naturalna kolej rzeczy i to nie podlega dyskusji. To ,że ostatnimi czasy dostajemy dobrze zoptymalizowane gry,zawdzięczamy w dużej mierze właśnie konsolom.Bo to głównie porty gier ,muszą na nich(konsolach) działać możliwie najlepiej.Bioshock ,Cod4 to właśnie tytuły przygotowywane z myślą o nich,dlatego nie ma sie co dziwić ,że chodzą i wyglądają tak dobrze. Celowo podałem przykłady R6V,Lost Planet, można by jeszcze dorzucić CMR DiRT by zwrócić uwagę ,że 8600GT niekoniecznie jest ekwiwalentem Xenosa, bo gry te działają kiepsko(chyba jako posiadacz 8600GT mogę coś na ten temat powiedzieć), wydajność jest już zbliżona ale bardziej odpowiada 1900XTX niż 8600GT/S . Dlatego dobrze ,że GoW działa jak działa(ale to dopiero ocenimy), tylko widzę że porównanie GPU x360 do 8600GT miało raczej na celu zdyskredytowanie X-pudła,przez ukazanie ,ze kastracik 8600 ciągnie mega produkcję EPIC. :) Zresztą teraz, złożenie kompa w cenie X360/PS3 który poradzi sobie z w/w produkcjami nie mu już problemu.
  2. BezbronnyPL

    Gears of War

    Akurat teorie ,ze w X pudle siedzi odpowiednik Gf8600GT łatwo obalić.Już nawet nie ma co wspominać ,ze PC i konsola to różne architektury i raczej nieporównywalne ze sobą.(W X360 na jednej podstawce jest GPU z EDRAM ) To ,że GoW działa na 8600GT i C2d ,jest wynikiem kilkuletniej pracy nad enginem i samą grą .Widać to doskonale na przykładzie UT3 na tym samym silniku ,który chodzi naprawdę nieźle,nawet na starszych maszynach. Ale już przywołując przykłady Rainbow Six Vegas, czy Lost planet widać jasno, że jeśli nad grą nie pracują mistrzowie kodu z niemal nieograniczonym czasem, to zaczynają się problemy. R6V na 8600GT chodzi nie ma co ukrywać kupiasto, na low/med.To samo dotyczy LP, tylko tu już jest dla odmiany sporo lepiej. Bioshock (ponoć ue3 ale w praktyce renderer to ue 2,5) także nie chodzi jak marzenie. Za to prawdziwa tragedia rozgrywa się w obozie Play Station 3 , gdzie wielokrotnie w topie o Ps3 zwracałem ,że RSX (czyli 7800GTX /128bit) jest zbyt słaby na dźwignięcie nexgenowej grafiki w sposób jaki wymyśliło Sony(czyli 1080 lub FSAA).Nie dość ,że 95% gier na PS3 wygląda gorzej niż na X360(często gorsze tekstury,oświetlenie,brak FSAA,słabe filtrowanie tekstur),to jeszcze są problemy z utrzymaniem frameratu. Także nam pozostaje sie w ogóle cieszyć ,że co ciekawsze gry z konsol zaczynają pojawiać się na PC w lepszej oprawie , a przy tym nie mają wymagań z kosmosu.
  3. Witam panów, mam takie pytanko(i nie jest to pytanie z gatunku tych na ile podkręcę proca). Jaka jest szansa ,że uda się uzyskać zegar 2,33Ghz -2,5Ghz na obniżonym napięciu, albo inaczej, czy z P2160 są spore szanse na OC ale z obniżaniem napięcia.Wiadomo że to zależy od sztuki ,ale jakąś średnią można wyciągnąć.Tzn, jeśli sporo egzemplarzy osiąga wysokie zegary na def Vcore ,to jest IMO spora szansa na obniżenie napięcia, przy jednoczesnym OC(2,33-2,4 by mi wystarczyło).
  4. BezbronnyPL

    Ram+ Płyta

    Nie wiem czy Ci to pomoże ,ale ostatnio analizując jaką płytę wybrać i po długich poszukiwaniach wybór padł na Gigabyte ga-p35-ds3r rev 1.. Ma 6 fazowe zasilanie CPU,NCQ ,ponoć świetny kodek dźwięku,wyjścia SPIDIF,solidne kondziory. Dlaczego ta a nie polecany Fox lub MSI F...cośtam? Bo czytając topy o tych płytach widać ,że nie są to płyty bez wad ,czasem dość upierdliwych.A jeśli chodzi o GB ,niczego jej nie brakuje,a co ważne, z tego co da sie przeczytać tu i ówdzie(np. xtremesystems) jest to bezproblemowa płyta. Dla mnie jest to najważniejsze, bo nie mam czasu użerać sie nad jakimiś [ciach!]łami. Choć osobiście nie trawie GB ,to jednak suma zalet przeważyła nad np.Abit P35, Asus P5K,Fox,MSI.A miałem już kiedyś płytę GB ,ze 3szt. Abita ,jedną MSI także nie jestem zwolennikiem jakieś marki(no może oprócz Abita) .
  5. BezbronnyPL

    Jego Ekscelencja K10

    Nie wiem co z tematem o Phenom mają pamięci DDR3 ,to przyszłość ale jeszcze odległa.Widać to po tym, ile minęło czasu, zanim standard DDR2 ostatecznie się zadomowił.Teraz, przejście na ddr3 może co prawda nastąpić szybciej niż poprzednio,gdyż pałeczkę lidera wydajności dzierży Intel,niemniej jest to drugorzędna kwestia.Z dużym prawdopodobieństwem można przypuszczać ,że dopiero dla kolejnej generacji CPU intela, ze zintegrowanym kontrolerem pamięci ,DDR3 ostatecznie wyprze DDR2. Póki co nowy standard to marketing na miarę PCI-E 2.0,taki "ficzer" do odznaczenia na pudełeczku, dla co mniej zorientowanych entuzjastów. A wracając do Phenoma, wcale nie musi to być najszybszy procesor na rynku,by osiagnął sukces.Żeby sobie to uświadomić ,wystarczy podkreślić ,ze dla większości użytkowników najważniejszym czynnikiem jest cena ,albo stosunek ceny do wydajności.Łatwo to widac na przykładzie X2 Vs C2D.Rożnica w wydajności między tymi CPU jest dość znaczna i wydawać by się mogło ,że AMD nie ma najmniejszych szans w powstrzymaniu ekspansji Intela. Co zrobiło AMD? Jedyną rzecz ,którą mogli zrobić-obniżka cen,ale na tyle sprytna by CPU AMD kosztowały mniej, niż porównywalne wydajnościowo C2D.Ten manewr się udał,gdyż AMD odnotowało znaczny wzrost sprzedaży(choć i tak jest pod kreską). Co do ma do K10? Dużo, bo skoro nie uda sie rywalizować z intelem na polu wydajności, to umiejętna manipulacja cenami może spowodować ,że K10 będą bardzo atrakcyjnymi CPU. Spójrzmy na to w ten sposób-najszybszy C2D kosztuje podobnie ile najwolniejszy Quad.Większość entuzjastów i typowych userów, mając tyle kasy wybierze raczej 4 rdzenie niż 2(abstraciach!ąc już od tego, czy w ogóle je wykorzysta)bo przecież 4 to więcej niż 2(znaczy lepiej). I tu jest miejsce nie tylko dla 4 rdzeniowego AMD-ka,ale może nawet bardziej dla 3 rdzeniowej wersji. Bo nietrudno sobie wyobrazić sytuację ,gdy mając do wyboru 2 vs 4 w podobnej cenie,mamy jeszcze w dużo niższej cenie Triple Core, -podkreślam w niższej cenie.I teraz co z tego ,ze Intel ma szybsze procesory, skoro AMD oferuje nam jajeczko więcej za niższą cenę? Nawet świadomy przewagi wydajnościowej Intela użytkownik, pomyśli dwa razy zanim wyda kasę.A jest tu jeszcze miejsce dla 4 jajek.Wart zaznaczenia jest fakt, że pomimo sporych różnic wydajnościowych między C2D i X2 dla przeciętnego użytkownika wydajność takiego K8 w porównaniu do szybszego C2d jest tak naprawdę zupełnie wystarczająca. Spójrzmy na wyniki np. w grach (większość patrzy głównie na te),95% gier, nie potrafi wykorzystać 2 rdzeni więc tak naprawdę testujemy świetną architekturę nowych procesorów Intela, ale w odniesieniu do 1 rdzenia.A teraz odpalmy najnowsze gry, które potrafią zrobić użytek z multi-threadingu I? Crysis,UT3, World In Conflict,Lost Planet (ten akurat potrafi użyć nawet 8 rdzeni)nie dość ,że działają świetnie na dwóch rdzeniach, to różnice miedzy starą architekturą K8, a nową C2D -choć dość spore- jakoś nie zwiększają dramatycznie wydajności ,bo czymże jest różnica 90FPS Vs 140?.Wraz z dokładaniem kolejnych ,rdzeni różnice są mniejsze lub mają mniejsze znaczenie(bo i tak jest b.szybko) . Przykłady ->link 1 ->link 2 ->llink 3 Przewaga Intela w wielu aplikacjach jest często spora ,ale bywa i tak ,że przekłada się to na kilka-kilkanaście sekund szybciej wykonanego zadania.Coś co ma znaczenie dla entuzjastów i profesjonalistów ,dla typowych 90% userów schodzi na dalszy plan. I dlatego K10 jako rywal Penryna, ma spore szanse na sukces.CENA,dobra wydajność .Czyli to co było kiedyś -Intel robi najszybsze procesory,a AMD = dobry stosunek cena /wydajność. Szkoda tylko ,że z zapowiadanego wzrostu wydajności bijącego Core, jakoś się nie doczekaliśmy, choć osobiście twierdziłem ,że tenże wzrost będzie , ale w stosunku "Performance per Watt".Niestety dla AMD ,Intel odskoczył w wyraźny sposób od swojego rywala, i imho, jest to dystans raczej nie do odrobienia.Szkoda też, że AMD nie zakupiło Nvidii(ponoć początkowo były takie plany),ale może z tego mariażu z ATI w końcu wyjdzie coś dobrego.Pieniądze leżą w masowym rynku, gdzie FUSION może narobić sporego zamieszania.Taki CPU/GPU na rynku rozwiązań mobilnych i HTPC powinien zrobić furorę ,ale to jeszcze dalsza przyszłość... Ale jeśli K10 vs Penryn, bedzie dzielić 10-15% max róznica wydajności a ,cenowo K10 będą tańsze o 20-25% i będą miały potencjał OC,to AMD nie ma czego się obawiać, I taka ciekawostka, pierwszy procesor z zintegrowanym GPU oraz kontrolerem pamięci zaprezentował już Intel...w 2000 roku i był nim Pentium Timna(jednak nigdy nie wszedł do produkcji seryjnej). A tu można to obejrzeć->Timna Osobiście nie chce mi sie czekać na nowe cacka AMD, podkręcony C2D(a ściślej mówiąc Pentium 2160) da mi wydajność przyszłych AMD już teraz, dlatego nowy mobas i cpu już zamówione. EDIT Ale AMD też zostaje-na wszelki wypadek ;) EDIT 2 Link
  6. BezbronnyPL

    Crysis

    Z tego co zauważyłem tak naprędce-dość spory skok wydajnościowy daje ustawienie volumetric effects na low , dałem za to textury na high(+ parę innych na high) .Wygląda i łazi lepiej niż można się spodziewać po karcie z 256MB VRAM.Choć wcześniej żeby zapchać całą pamięć musiałem w miarę szybko przejechać fragment mapy, teraz od razu użycie pamięci wskazuje 244MB.Ale ogóny wygląd jest o niebo lepszy niż all na medium.
  7. BezbronnyPL

    Crysis

    Osobiście w Far Cry nawet nie zwróciłem uwagi na fabułę, po prostu jeździłem , pływałem, skakałem ,latałem itd,Sporo rajdy sprawiało mi przechodzenie misji na różne sposoby, a to rozpędzenie sie uszkodzonym hummerem i wbicie w jakąś barykadę, po czym strzał w wóz i oglądanie efektów eksplozji, a to strzelanie z granatnika przez pół mapy i oglądanie później co się tam stało czy efektowne zestrzeliwanie Black Hawków czy V-22 Osprey. Naprawdę, nawet nie zwróciłem uwagi ,że jest jest tam jakaś fabuła, po prostu podobało mi sie jak przeciwnicy wzywają pomoc przez radio(i sprawdzanie co się stanie jak ze snajpy odstrzelę radyjko)-tylko grałem. Jednym słowem masa podobnych smaczków+ogromne mapy+niezłe giwerki+fantastyczna grafa+niezłe AI złożyło się na taki mój odbiór gry. Choć trudno FC nazwać ambitną grą, to jednak w historii gier ma swoje miejsce wśród najbardziej udanych tytułów.A to dla kogo był to tytuł udany a dla kogo nie, to już kwestia jego osobistych preferencji. P.S. Mnie np.taki HL(1 i 2)) nie wciągnął i to pomimo kilkukrotnego podejścia.Może jest to kwestią tego ,że niektóre gry trzeba przechodzić w odpowiednim czasie(zaraz po premierze?) by docenić ich poziom. Co do Crysis w 1440x900 wszystko na medium ,gra się całkiem przyzwoicie (ok.30FPS /-5).W 1024x768 z częścią opcji na High(fizyka, shadery, efekty) działa podobnie z tym ,że lepiej wygląda->nawet pomimo nienatywnej rozdziałki.Oczywiście w DX9 ,bo DX10 na tej karcie ma wartość nalepki na pudełku(DX10 full "compatible"). EDIT:Stery to ostatnie WHQL , nie te pod Crysis.
  8. Ja mam pewne obawy co do 8800GT, a mianowicie takie ,że 8800 to już w zasadzie schodząca technologia.Na potwierdzenie tego, można cofnąć się trochę w czasie do serii 7xxx. W momencie gdy NV przechodzi na mniejszy proces technologiczny, z jednoczesnym podrasowaniem poprzedniej , starszej architektury(7800->7900) może to oznaczać ,że całkowicie nowy układ jest już praktycznie gotowy(lub przechodzi ostatnie szlify).Właśnie teraz następuje podobna zmiana, i z jednej strony zakup 8800GT może być naprawdę niezłym interesem(ale do gier DX9)z drugiej jest duze prawdpodobiestwo ,że nowe i przebudowane GPU następnej generacji, są bliżej premiery niż nam się wydaje. Dużo zależy od tego, jak duża presja zostanie wywarta na NV i AMD gdy okaże sie, że UT 3, Crysis i parę innych tytułów ,które działają lub będą działać pod DX10(patche) będzie wyraźnie niedomagać i sfrustrowani użytkownicy, coraz głośniej będą narzekać na high-end, który z dnia na dzień stał się niemalże low-endem. Nie ukrywam ,że mam ochotę na zmianę ,ale tak jak wyżej napisałem, obawiam się ,że "inwestycja" tylko przez bardzo krótki okres będzie sensowna i atrakcyjna. Na pocieszenie pozostaje fakt, iż karciochę zawsze można sprzedać i straci się mniej niż na GTX.
  9. BezbronnyPL

    Crysis - Zamykamy :]

    Gierka wygląda raz obłędnie raz dość ubogo.IMO sądzę ,że jest to wynikiem tego, że nie wszystkie osoby mające okazję zagrać w oficjalne demo, potrafią dobrać odpowiednie ustawienia do posiadanego sprzętu(nie wiem po co forsują FSAA, skoro karta dławi się już w 1024x768). Magiczna kombinacja Core Quad + 8800GTX chyba nie jest zbyt optymalna i widać wyraźnie, że obecna generacja kart, raczej nie podoła zadaniu jakie przygotował Crytek.Co ciekawe, ponoć CryEngine 2 NIE potrafi wykorzystać układów 4 rdzeniowych . Prawdopodobnie niemieccy developerzy mieli ambicję stworzyć najbardziej zaawansowany , naszpikowany nowinkami z corocznego SIGGRAPH engine. Pierwsze grywalne "dema" chodziły na 1900XTX i X2+2GB RAM. Co sie stało po drodze?Ano pewnie nowe API i jakże udane karty G80.Moc ukryta w kawałku krzemu od NV spowodowała prawdopodobnie ,że Crytek jako samodzielny dev team, nie parząc na obsuwy ,dokładał kolejne nowinki, już nie oglądając sie zbytnio wstecz. Efektem nie jest najgorzej zoptymalizowana gra(póki co -demo)ale gra, która może popchnąć grafikę 3D i rynek PC o lata do przodu.Teraz, użytkownicy GTX mają prawo narzekać na kiepską wydajność, ale może zmusi to NV (i AMD ), do szybszego wypuszczenia naprawdę potężnej grafiki DX10, a nie kombinowaniem ze SLI,Triple SLI, Quad SLI i udawaniem ,że obecna generacja kart radzi sobie nieźle -tyle, że w podwójnej a jeszcze lepiej w poczwórnej konfiguracji . Zobaczymy co będzie prezentować demo i pełna wersja Crysis.Bo patrząc na wyniki GTX ,poddaje w wątpliwość sens zakupu takiego to 8800GT-przynajmniej z myślą o tej grze. A w załączniku PDF o Cry Engine z przykładami użytych technik, jest też przychylne słowo o DX10(część poświęcona LOD). Podro4All ;) finding_next_gen.pdf
  10. Taaa, wpływ na wydajność PCI-E v1 na 8800GT i inne nowe karty , będzie pewnie podobnie "miażdżący" jak AGPx4 vs AGPx8. Większa przepustowość ma znaczenie w w przypadku grafik on-board,a nie potworków z superszybkimi 512MB+ DDR3/DDR4, o gigantycznej przepustowości względem szyny PCIE .
  11. BezbronnyPL

    Bionic Commando

    No pamiętam jak zagrywałem się w to na automatach , jaka to była wtedy grafa gamplay... :D Widzę ,że ze starym BC nie będzie to miało wiele wspólnego ,ale zapowiada się obiecująco. I będzie na PC/X360 i PS3 .Widze ,że coraz więcej gier konsolowych pojawia sie ostatnio na PC...
  12. BezbronnyPL

    Unreal Tournament 3

    Pograłem i moje wrażenia Ta gra ma coś w sobie, online grałem tylko w dwie gry :CS(do 1.5) i UT99, ale to było dawno.W Unreala 2003 trochę pograłem offline i w sumie mi się podobał, ale to już nie to samo co UT99, z kolei wersja 2004 zagościła u mnie w formie dema -na krótko.Jakoś mnie nie przyciągnęła. A UT 3? Całkowicie pozytywne wrażenie,widać że panowie z Epic naprawdę przyłożyli się do gry ,bo w każdym detalu widać masę pracy.Niesamowity design lokacji, dbałość o szczegóły , nawet jeśli tu i ówdzie widać słabszą teksturę, to ogólne wrażenie jest niesamowite.Fantastyczne detale widoczne w miejscach ,które jesteśmy dojrzeć tylko w trybie flyby, świadczą o podejściu twórców do tej odsłony gry.Mistrzostwo 3D,wystarczy przyjrzeć się pomnikom na mapce w Japonii(?) ,soplom lodu , broni.Świetny ,dyskretny HDR, światło przebijające się przez chmury, nieźle zrobiona woda,nawet fajny widok z pod jej lustra, widoczny wszędzie bumb mapping. A to wszystko, przy stosunkowo znośnych wymaganiach, nie jest potrzebny high-endowy sprzęt, by podziwiać UT3 w pełnej krasie.Tak powinno pisać się gry. Gamplay ?Bardzo dobry, naprawdę bawiłem się równie dobrze, jak za czasów UT99,chętnie zagrałbym w mapki ze starego Ut w nowej odsłonie,ale nawet jeśli ich nie będzie, pierwsze wrażenie jest bardzo dobre.Miłe ,niczym nieskrępowane bieganie w szalonym tempie,niezły Hooverboard(ta deska odrzutowa czy coś),bardzo fajne ,intuicyjne prowadzenie wszystkich pojazdów, ciekawy pomysł z artylerią(najpierw wystrzeliwana kamera).UT2004 a UT3 dzieli wiele, bezdyskusyjnie trójka jest o niebo lepsza. Dla porównania grając w demo ET:Quake Wars nie bawiłem się tak dobrze,nie przyciągnęła mnie ta gra , po dłuższej zabawie zaczęła mnie nużyć a potem irytować.Wcale się nie zdziwię, jeśli to ze wszystkich gier wydanych w tym roku tryb online UT3, zdobędzie najwięcej graczy. I pomyśleć, ile to lat minęło od pokazania światu pierwszej prezentacji nowego Tournamenta,a już teraz jest w zasięgu ręki. Minusy?Myślę ,że muzyka.W całej serii UT było wiele fajnych kawałków,tutaj jakoś nie słychać niczego ciekawego-przynajmniej w demie. Nie wiem czy można do minusów zapisać niedestrukcyjne otoczenie,IMHO w tej grze i tak nie ma to znaczenia. NA sprzęcie z siga(grafika z zegarami 720/850) chodzi na full -> 5/5 ,postprocess vivid,tektury max itd.w 1440x900.Na mapkach bez pojazdów,nie udało mi się zejść poniżej 32FPS,użycie procesora 100/100 czasem 80/80.w mapkach z pojazdami min FPS ok.27, średni framrate ogólnie= 35-45FPS w pomieszczeniach do 60(vsync ON).
  13. Co do programu którego użyłem, to oczywiście Riva Tuner(2.0x). RT->górna zakładka->przycisk "customize"->Hardware monitoring->Setup->zaznaczamy ptaszkiem pozycje które nas interesują czyli np."CPU 0 usage", CPU 1 usage " czy "Local video memory usage">pozycje, które mają wyświetlać się na ekranie wybieramy w polu Properites(obok pozycji "CPU usage" itd.) i ustawiamy "in OSD". Następnie naciskamy czerwoną kropke "Enable background monitoring".Następnie należy uruchomić Riva Tuner Statistics Server i możemy śledzić użycie CPU, temperatury i co tam jeszcze wybierzemy. Klikając na ikonie RT Statistics Server w trayu można zmienić kolory ,wielkość oraz położenie wskazań.No i przy okazji sprawdzić czu opcja IN OSD jest zaznaczona(domyślnie powinna być). Frapsa praktycznie nie używam. Co do cod4 zauważyłem jeszcze jedna dziwną rzecz,mianowiecie brak(?) HDR powoduje ,że postacie naszych żołnierzy świecą nienaturalnie w ciemnościach, zamiast być mniej widoczni.Żeby było śmieszniej, podobno polskie mundury wojskowe maja taką "wadę ukrytą" ,że w podczerwieni świecą...
  14. Dobra zassałem i co o tym sadzę + przyjemna i ciesząca oko grafika, sporo nieźle zrobionych efektów(np. depth of field wygląda fantastycznie).Nie jest to może cudo graficzne, niemniej podobnie jak np.QW :Enemy Territory, grafa jest na wystarczająco dobrym poziomie.A to to tylko demo. +niezła optymalizacja, po czymś takim jak Rainbow Six Vegas nie spodziewałem się ,że nagle zaczną pojawiać się gry, które są naprawdę dopracowane.Docelowo Cod4 na Xbpx 360 ma chodzić w 60 ramkach, i pewnie dev team sporo siedział nad kodem by to się udało. +intensywne doznania -nie ma co narzekać na chaos ,bo pole walki ,to często kompletny chaos(wystarczy obejrzeć filmiki na you tube-wpisać frazę afghanistan/ iraq firefight- by się o tym przekonać. +nieźle zrobione giwerki i cały ten militarny staff ,żołnierze noszą w demku nowe mundurki ACU,broń i zmiana magazynków praktycznie jak w rzeczywistości, np.sposób przeładowywania czy takie szczegóły jak to, że dopiero po całkowitym opróżnieniu magazynka broń jest przeładowywana, a nie jak to bywa w innych grach tego typu,kiedy giwerka zawsze jest przeładowywana. Do tej pory, tylko Americas Army miała dopracowane takie detale.Fajnie też widać w ciemnościach wstawki trytowe, na przyrządach celowniczych (pistolet). Minusy ?No cóż to Cod -czyli skrypty, to co już wszyscy znają ,mnie akurat to zbytnio nie przeszkadza ,choć wkurzające jest to ,że nasi przeciwnicy skupiają ogień na nas pomimo tego ,że nasi co mniej rozgarnięci towarzysze włażą im pod lufę... Parę rzeczy jest niedopracowanych jak celowniki kolimatorowe w M4 ,nie wiem dlaczego w egzemplarzu z granatnikiem, widok z celownika jest jak z optycznego, choć powinien być taki jak w wersji pozbawionej granatnika,dodatkowo jeden z M4 jest w wersji z rączką z przodu ale na ziemi i w rekach naszych kompanów rączki tej nie ma... No ale to szczegóły na które zwrócą uwagę raczej fani militariów, niż typowi gracze lubiący FPS-y, także nie ma co sie czepiać. Ogólnie wrażenia bardzo pozytywne ,niewygórowane wymagania ,fajna oprawa i efektowna rozwałka-jak ktoś lubi klimaty Black Hawk Down gra powinna się spodobać. Na konfigu z siga w 1440x900 +FSAA x2 v-sync ON ,chodzi 30FPS+choć potrafi chrupnąć ~28FPS, jedynie jedna opcja z wygładzaniem dymu(?) jest wyłączona.Także na singla powinno wystarczyć, o multi na tych ustawieniach można zapomnieć(choć na multi i tak nie mam i nie będę miał czasu). Użycie CPU średnio 90% / 45% CPU0 / CPU1(przy kilku aplikacjach w tle) widać to na screenie w załączniku.
  15. BezbronnyPL

    Nvidia G92

    No to zwracam honor. :D A już myślałem , że nie da się wytłumaczyć ,że szerokość szyny danych nie jest aż tak bardzo istotna ,choć w przypadku high-endu i niebotycznych rozdziałek +FSAA(szczególnie supersampling)zapotrzebowanie na przepustowość jest spore-co jest sprawą oczywistą, dla wszystkich interesujących się tematem. pozdro.
  16. BezbronnyPL

    Nvidia G92

    No tak :) , ale w dalszym ciągu możemy zmierzyć/sprawdzić wydajność kodu dla PS i VS z osobna - 3dmark 05/06 -choć są i inne benche. Chodzi mi wydajność architeORT: ORT: ORT: ktury, seria 8xxx kod dla PS realizuje praktycznie na tym samym poziomie co 7xxx(z kolei kod VS jest wykonywany znacznie szybciej), ale to co decyduje o ogólnej przewadze, to ilość SP. Za mało? :? To może poczekajmy na 9600GT/S(o ile będzie miał taką nazwę), gotów jestem założyć się ,że przy szynie 128bit będzie wydajniejszy od dzisiejszych topowych kart. Liczy się tylko przepustowość, a to jaką układ ma szynę ma drugorzędne znaczenie, ważne żeby szyna był dopasowana do możliwości układu .Na przykładzie 2900XT jasno widać, że 512bit ,to w przypadku tej karty marketing i nic więcej.
  17. BezbronnyPL

    Nvidia G92

    Nie przesadzajcie z tą szyną 256bit, obstawiałbym ,że taki 8800GTX na takiej szynie nie byłby sporo wolniejszy od 384bit .Kluczowa jest wydajność PS/VS oraz ich ilość.Wyciągajcie wnioski z dotychczasowych specyfikacji - każda generacja kart niskiego segmentu jest porównywalna wysokiej klasy kartami poprzedniej generacji, pomimo posiadania szyny 128bit przez nowy low-end. Wysoka wydajność PS/VS/TMU (wyższe taktowania GPU) powoduje ,ze z powodzeniem konkurują z kartami z szyną 256bit .Tym razem jest podobnie, z tą różnicą ,że zaprojektowanie serii 8xxx zajęła NV 4 lata i trudno oczekiwać, iż nagle dostaniemy coś zupełnie nowego.Teraz, będziemy prawdopodobnie mieć do czynienia z "tuningowaną" i usprawnianą architekturą G80, podobnie jak miało to miejsce z serią 6xxxx-> 7xxx .Także nie przesadzajmy z szerokością szyny, kluczowa jest wydajność samego GPU.Taki G92 pewnie ma obcięte parę klastrów ,a zastosowanie szerszej szyny i tak byłoby bez znaczenia. Wcale się nie zdziwię, gdy po solidnym OC 8800GT dogoni 8800GTS.Problem w tym ,że NV tym razem może pociąć GPU w taki sposób ,by znacząco to utrudnić.
  18. Linky
  19. BezbronnyPL

    World In Conflict

    Na Gamespot ukazały się całkiem niezłe artykuły -pierwszy o wydajności na różnych configach oraz drugi dotyczący taktyki. Linky 1 Linky 2
  20. BezbronnyPL

    Geforce 8800 GTX / GTS

    W zakładce Power User -RT/NVIDIA/Overclocking, można spróbować wymusić tryb z Visty ustawiając Shader Clock Ratio na 1.Czy działa-nie wiem.
  21. Oj panowie :) , koledze chodziło pewnie o możliwość odpalenia NCQ, a jak wiadomo, do tego wymagany jest tryb AHCI.Dlatego napisałem , że jeśli mamy włączone NCQ możemy przyjąć ,że tryb AHCI (lub odpowiednik) jest w użyciu. W tym kontekście postawiłem znak równości między NCQ a AHCI.Zdaje sobie sprawę ,że natywne kolejkowanie to co innego niż AHCI-daję słowo Już kilka razy widziałem posty w stylu jak włączyć AHCI(w domyśle -"chcę mieć NCQ") na KN9 itp. :wink:
  22. Nie ma opcji pozwalającej włączyć/wyłączyć tryb AHCI w BIOS.Ale prawdopodobnie tryb włącza się automatycznie w przypadku gdy dysk bootujący jest na SATA.Instalowałem XP SP2 ,z uwagi na to, że nforce4 ma zintegrowany kontroler SATA 2 żadne sterowniki nie były potrzebne, ale dopiero po instalacji NV IDE SW pokazało się coś takiego(patrz załącznik) . Przed instalacją w ogóle nie było w menedżerze urządzeń kontrolera SATA(tylko kontroler-y IDE ) . Przyjmując , że działający NCQ =AHCI , to wszystko działa jak należy.
  23. BezbronnyPL

    Geforce 8800 GTX / GTS

    Nowy Riva Tuner(2.04) rozwiąże "problemy", z taktowaniem shader /ROP.
  24. Błąd CRC ,może być spowodowany -niekompatybilnością RAM-u z mobo -zbyt ostrymi/nieprawidłowymi timingami pamięci -uszkodzonymi pamięciami -przekręconymi pamięciami/CPU. -uszkodzony CPU. Na Twoim miejscu przyjrzał bym się RAM- GoldMemory obowiązkowo i zobaczyć czy przejdzie test. Osobiście przechodziłem przez podobne problemy kilkukrotnie, i gdy zaczęły pojawiać się problemy z niemożnością odpakowania archiwów i instalacją progsów , to niemal zawsze źródłem problemów był RAM. U Ciebie zachodzi podejrzenie uszkodzenia CPU(cache L2) jeśli RAM okaże się w porządku.Gorzej jeśli CPU przejdzie 12h Orthosa...to wtedy trzeba będzie szukać przyczyny gdzie indziej. Nie spotkałem się by ktokolwiek maił problemy z Brisbane ,już częściej ktoś skarży się na przyspieszenia w grach , które eliminuje Dual core optimizer( i nie jest to, jak piszą tu i ówdzie, programik rozdzielający zadania na 2 rdzenie ).
  25. Od siebie dodam ,że na kn9 z procem na 2,8(czy tez 2,9 jak mi się zachce) nie mam absolutnie żadnych przycinek, proc podkręcony od nowości , instalowałem demka różnych nowych gierek, różne stery do karty graficznej i raz aktualizowałem stery do mobo(łacznie z NV IDE=tryb AHCI).OS to XP. EDIT Zapomniałem dodać o dual core optimizer-zainstalowany od razu po instalce OS-u.
×
×
  • Dodaj nową pozycję...