Skocz do zawartości

BezbronnyPL

Stały użytkownik
  • Postów

    754
  • Dołączył

  • Ostatnia wizyta

Treść opublikowana przez BezbronnyPL

  1. BezbronnyPL

    Gears of War

    Przecież od początku mówiono ,że wersja PC ukaże się po premierze na X0.Więc nie bardzo rozumiem skąd to całe zamieszanie.O wersji PC przestano mówić ,gdyż mogłoby to niekorzystnie wpłynąć, na sprzedaż sztandarowego tytułu Xboxa. Gdyby GoW nie okazał się takim sukcesem , prawdopodobnie znacznie szybciej zobaczylibyśmy to na blaszakach, po prostu developer/wydawca miał plan A i B.Koszty produkcji takich gier ,są na tyle wysokie ,że sprzedaż niższa od oczekiwanej mocno odbija się na twórcach. Tymczasem GoW okazał się sukcesem, i w spokoju dopieszczano wersję PC.Gdyby ktoś nie pamiętał, pierwsze prezentacje UE 3 (podczas premiery GF6800) prezentowały postacie z GoW.
  2. Przeczytajcie to>Linky wgląda na to, że PS3 w w wersji 60Gb będzie sprzedawana do opróżnienia magazynów ,potem w ofercie pozostanie tylko wersja za 599$. Nie bardzo rozumiem poczynania Sony. "From a hardware perspective, the $499 price adjustment we did for the 60GB version for the American market, we're no longer in production for that product," he said in an undedited on-camera interview. "Once that product is gone from the retailer shelves, then we're back to a $599 SKU only, so it's not like we have a two-price strategy in the US market. We found out very early on how consumers react to having just one SKU as opposed to two." SCEA has subsequently confirmed the phase out, but emphasized that it would be gradual. "The 60GB PS3 will be available in North America for $499 until supplies of that unit are depleted," Karraker told GameSpot in a follow-up interview. " I od razu sprostowanie(?)->Engaget
  3. Nie wiem czy widzieliście ten filmik->Assault and ...,ale mnie wbił w fotel. Może Crysis robi wrażenie oprawą graficzna, ale do mnie nie trafia podejście w stylu ->super hiper udziwnione bronie ,skafandry i kosmici, wolę czystą wojenkę, a taką oferuje Cod4. Widać ,że twórcy chcą ukazać nowoczesne pole walki w różnych teatrach wojennych , i z perspektywy różnych formacji ,a nie jak to było wcześniej -zwykła piechota. Tu widać jednostki specjalne, i dość typową operację, dla tego typu formacji, rangersów (w iraku ?) ,a wcześniej marines (w innym trailerze). Najwyższej próby motion capture, wraz z komunikacją za pomocą gestów (świetnie pokazana w trailerze ze snajperami).Co prawda widać ,że realizm jest potraktowany nieco po macoszemu, gdyż w realnych warunkach para snajper i spotter nigdy nie poruszają się na przełaj przez pole(już nie wspominam o tym ,że raczej nigdy nie biegają ), a czyszczenie pomieszczeń dysponując karabinem M14, to mało prawdopodobny scenariusz .Niemniej grafika , doskonale oddane nowe giwerki, oraz wspomniany motion capture powodują ,że nowy CoD, to pozycja obowiazkowa dla fanów militariów.Ja osobiście cieszę się ,że wreszcie porzucono II w.ś bo już rzygać mi sie chciało patrząc na kolejne lądowanie w Normandii.Zwłaszcza, że niemal w każdej grze takowe było(ile można ?). Ciekawe kiedy premiera.A miałem nie kupować lepszej karty grafiki(tymczasowo mam Gf6600) ale coś czuje ,że w tym postanowieniu długo nie wytrwam...
  4. BezbronnyPL

    Killzone 2

    Również jestem zdania ,że to co ukazuje trailer to nic szczególnego.Ocenę ułatwia jeszcze, przygotowanie tego trailera na wzór sławetnego pre-rendera.Widać jak na dłoni, jak dalece obecna generacja konsol(zresztą kart graficznych na PC)jest w tyle, za farmami CPU i nie ma nawet co liczyć, by w najbliższym czasie pojawił się jakikolwiek tytuł, który choćby zbliży się, do jakości obrazu znanego z pre-renderów.Zresztą o tym już kiedyś pisałem i nie będę się powtarzał. Na tym polu najlepiej prezentuje się póki co unreal engine 3, nafaszerowany normal/bumb -mappingiem ,HDR itd.itp efektami. Killzone 2 na obecnym etapie wygląda świetnie, niemniej widać widać słabe teksturki, jakichś niewyraźny n/bump-mapping, no i blur będący już standardowym narzędziem do ukrywania niedoróbek ,czy braku odpowiedniej ilości FPS. Fantastycznie wygląda broń-a to akurat uwielbiam-uważam że kiepsko wyglądające giwery negatywnie odbijają się na wizerunku gry, a tutaj mamy przerobione na układ Bullpup M4 (czyli coś ala-> Steyr AUG Ax) Nice :) Sam gameplay to IMHO krzyżówka FEAR,z Rainbow 6 i Battelfield- czyli ostro wybuchowo i efekciarsko-fajnie. Zobaczymy co ostatecznie z tego wyniknie, mam wrażenie , że Sony będzie bardzo pilnować tego tytułu, bo kiepskie oceny takiej gry mogły by ostatecznie położyć sprzedaż PS3.
  5. Update biosu można zrobić z płyty CD.Trzeba jedynie utworzyć płytę startową w Nero, zaznaczając opcję emulowania flopa(ale bez tego też chyba działa-choć nie pamiętam czy na 100%).Potem dodajemy pliki z dyskietki startowej(którą utworzymy wcześniej) oraz awdflash + bios i jazda. Ja w ten sposób flashowałem karty grafiki. Mamy z głowy ryzyko flashowania pod XP, czy błędu na dyskietce, zresztą dyskietkę i tak powinno formatować się "pełnym" formatem z korekcja błędów.
  6. BezbronnyPL

    Crysis - Zamykamy :]

    Parallax Occlusion Mapping to żadna nowość.Po raz pierwszy szerszej publiczności, technikę tę pokazał EPIC prezentując Unreal Engine 3(na prezentacji można było także zobaczyć modele postaci z Gears of War, gdy jeszcze nikt nie słyszał o tym tytule). Obecna jest już w kilku grach.To taka uproszczona wersja innej(bardzo zasobożernej) techniki- Displacement Mapping. Parallax Mapping nadaje płaskim obiektom w grze wrażenie wypukłości również gdy obserwator (gracz), patrzy na powierzchnię pod pewnym kątem. W przypadku zwykłego Bumb Mappingu natychmiast zauważylibyśmy ,że obserwowany obiekt jest tak naprawdę płaski. Przykład? Dziury po kulach w F.E.A.R , wydają się głębokie nawet gdy staramy się obejrzeć je pod ostrymi kątami.
  7. BezbronnyPL

    Geforce 8600 GTS / GT

    Od dawna tak jest,a dokładniej od czasu GF3 , kontroler pamięci pracuje w trybie 2x 64bit,a w nowszych konstrukcjach 4x i 8x (64bit).
  8. Ja dziś w końcu złożyłem swojego rzęcha na KN9 +brisbane, ale niestety jak przeczuwałem, że będzie problem z pamięciami tak się też stało. Za ch..nie mogę zmusić tego do współpracy z Patriot SL 667 (2x1GB).Już nawet nie wymagałem ,żeby te kości się jakoś specjalnie kręciły, a one już na default sypią błędami w memteście,i aż dziw ,że Xp zainstalował się bez problemów.Ale potem już same problemy-z instalacją programów, odpakowywaniem archiwów ,kopiowaniem.Nic nie pomaga, ani podbijanie napięcia do 2,10 ,ani zamiana slotów,2T +ręczne timinigi+127ns.BIOS oczywiście najnowszy. Pozostaje pozbyć się ścierwa pod kretyńską nazwą Patriot i kupić coś normalnego. pozdro:) EDIT Problematyczna okazała się jedna kostka, która nie toleruje napięcia wyższego niż 1,80 V(sic!), na domyślnym lata na DDR760.Druga jest ok. Pierwsza rzecz jaką zrobiłem po odpaleniu kompa, to podbicie napięcia Vdimm do2,0V, niestety nie spodziewałem się ,że przyniesie skutek to odwrotny do zamierzonego. Teraz już wszystko lata bezproblemowo. PS.Żeby było śmieszniej, to już moja trzecia płyta Abita i z każdą miałem problemy z pamięciami.Najpierw 2x256 na pierwszej mobo potem 2x512 na innej i teraz 2x1024 na KN9. No ale już jest ok.Szkoda tylko ,że zlokalizowanie problemu, to tak czasochłonne zajęcie-straciłem kilka godzin na testach. Pozdro dla zadowolonych userów Kn9.
  9. BezbronnyPL

    Radeon Hd 2600 XT/Pro

    pierwsze testy 2600 Kilka gierek ,marki itp..
  10. Od jakiegoś czasu mam ten monitor samsunga i szczerze powiedziawszy po przesiadce z wyśmienitego CRT ten monitor to padaka(931BW) Fajne kolory?lepszej jakości tapeta i dithering bije po oczach, już nie mówiąc o np.odwzorowaniu ludzkiej skory,gdzie jaśniejsze ,mniej opalone części zmieniają się w białą plamę-wygląda to okropnie. Filmy-no nie wiem,czerń jest tak czarna, że niewiele czasem widać-kupa jednym słowem. Magic kolor i magic bright oraz dynamicznych kontrast, to funkcje które więcej psują niż coś dają,obraz po włączeniu takich dopalaczy wygląda co najmniej nieciekawie. Jedyne plusy to" wygląd, DVI,16:10(jak ktoś lubi) i na tym koniec.
  11. Wiele wyjaśni ten artykuł ->Linky W skrócie ,każdy developer musi odpalić M$ czy to Sony pewną sumę od każdej sprzedanej kopii gry, jeśli zdecyduje się na exclusiv na daną konsolę , może liczyć na obniżenie swoistego podatku, lub jego całkowite zniesienie.Biorąc pod uwagę ilość konsol na rynku developer zdecyduje się na port na którym najlepiej zarobi.I tak dochodzimy do sedna problemu, liderem jest Wii potem X360 a potem Ps3.Obecnie strategicznym portem jest dla większości devów jest X360, choć Wii nieźle namieszał na rynku.Z PS3 jest o tyle złożona sytuacja ,że wiele z nich niekoniecznie zostało zakupione do gier, przecież PS3 to wciąż najtańszy(?) odtwarzacz Blu-Ray.To dodatkowo wpływa na decyzje wydawców,devów, gdyż ilość sprzedanych konsol, nie jest równa ilości graczy.Takiego problemu nie ma z Wii i X360 , docelowo to maszynki do gier-po prostu to konsole ,ktore nie usawają super maszynki do wszystkiego. a to fragment artu: " For every game sold, the console maker gets a cut, usually a pretty hefty cut, but the exact amount is a closely guarded secret. When I was writing for the Atari Jaguar, it was about $5 per cartridge, and the grapevine tells me the number now is about $10-15 per disk sold. This number is highly negotiable, if you are a big name dev house and you are willing to put out your app exclusively for one console, this fee can be negotiated down or even away in rare cases. The little guys, well, they get shafted. In any case, for the sake of argument, I will assume the console makers get $10 per game sold, and zero for big name exclusive games. One more tidbit to toss at you, I have been told by a bunch of people that dev costs are painful on the new consoles, the 360 and PS3 specifically. If a game for the older XBox1 or PS2 cost $5 million to make, the 360 is about double that or theoretically $10 million. The killer here is that the PS3 dev costs are between 2-3 times that of the 360 and about 5x that of the Xbox1 or PS2. Ouch. Now, getting back to the feedback part of the circle, if you are a dev, you want to write your game for a large potential audience of paying customers. Assuming you get $20 per game sold, and a game costs $10 million to develop, you need to sell half a million copies to break even. If you don't, well, you won't be in this business for long. If your new game, Killer Death Robots 999 appeals enough to 10% of the people out there who eventually buy it, you can work out the numbers pretty quickly. If the console has a million units in circulation, you will sell about 100K copies and lose your shirt. If it has 10 million units out there, you stand to make a lot of cash, and at 100 million units, well, call me, I am more than willing to be adopted at this stage in my life. Basically what it comes down to is the more units a console maker has out on the market, the more willing game companies are going to be to write for it. Even if you make a stinker, if there are 100 million consoles out there, you will probably make a profit, there are a percentage of people who will buy anything. Conversely, if you make the best game in the world that everyone buys, if there are 100K consoles out there, you will still not make any net profit. There is a big mushy middle ground here, and that has to do with how much effort you expend on each version of a game written for multiple platforms. If the 360 has 10 million units and the PS3 1 million, you can do the math. Write it for the 360 and spend $10 million, but only port it to the PS3 if you can do the port for under $1 million. This is where a lot of the death spiral side of things comes in. If you don't have enough consoles out there, people will not write games for your super 31337 system, or at best do a crappy port to it. This means the console with the most units will get the better games."
  12. No właśnie mobas leży już w serwisie, to co mogłem to zrobiłem.W przypływie desperacji chciałem kupić jakąkolwiek kartę na PCI-E(siakiś Turbo Cache), ale ...nie mieli żadnej, a już nie chciało mi się łazić po mieście a wbrew pozorom, w większości sklepów, akurat nie ma tego czego sie chce. Z tego co mówił serwisant , niektóre mobo fucktycznie "nie lubią się" z kartami PCI -promyk nadziei jest. Także Abit jest pod mniej lub bardziej troskliwą opieką serwisantów,a na pocieszenie dodam , że takiej sterty mobasów Gigashita, to w życiu nie widziałem, jednak pobiła ją sterta mobasów leżąca obok -tym razem Asus-a. :lol2: Także do soboty muszę <span style='color: red;'>ORT: wziąść</span> na wstrzymanie. Ogólnie ten abit jest fajny, szkoda, że kolor nie jest krwisto czerwony tylko pomarańczowy :) , no ale nie ma rzeczy idealnych ...3 fazowe zasilanie wygląda dość skromnie, mogliby dać 4 fazy i stale kondensatory zamiast zwykłych, elektrolitycznych .Dobrze chociaż, że są to Rubycon-y... mam nadzieje ze od przyszłego tygodnia zobaczę co potrafi kn9... pozdro:)
  13. Witam wszystkich. Ostatnio stwierdziłem ,że czas nagiąć obietnicę daną samemu sobie "żadnych części do kompa"-ale pomimo wytrwałości ceny X2 3600+ i przyzwoitych mobasów stwierdziłem ,że jednak się skuszę :) W końcu ,za śmieszne w sumie pieniądze, można mieć przyzwoity zestaw. No i leży właśnie zestawik Brisbane +KN9 + 2x 1GB Patriot SL(innych nie było). Kłopot w tym ,że póki co nie zmusiłem tego zestawu do działania-na razie mam jeszcze grafiki ma PCI-E więc odpaliłem z PCI. Po włączeniu czarny ekran, co dziwne mobo ładnie piszczy pojedynczym beep tak jakby wszystko było ok. a póki co probowałem: -zamiany slotów RAM -pamięć włączona pojedynczo, w kolejne sloty -zamiana kości RAM(na tą druga identyczną) -zamiana slotów PCI dla "karty grafiki"-która działa na drugim kompie bez problemu w trybie VGA i 800x600 -oczywiście nic nie podłączone do IDE/SATA,FDD(którego nie mam od 7 lat) -CLEAR CMOS robiłem kilkanaście razy. -wyjmowałem bateryjkę, i łączyłem +/- na chwilkę(przecież nie będę czekał 20 minut) Diody na mobo ładnie się świecą(zielona i czerwona), wiatrak CPU po odpaleniu spowalnia obroty,wszystkie kable z zasiłki (Chieftec 350W -ATX 2.0) ładnie podłączone i dociśnięte. I ? Powinno buczeć i huczeć ,a na razie moje kilka stów po prostu ma mnie gdzieś-BEEP to wszystko co udało się uzyskać,klawa nie działa, myszka nie świeci(optyczna). Jak na złość mobas nie ma wyświetlacza kodów POST -więc nic nie wiadomo.Choć z tego sygnału beep (pojedyńczy -jak należy)wynika ,że wszystko powinno być OK. Po wyjęciu RAMU ze slotu ładnie kwiczy ,ze czegoś brakuje-więc niby też ok. Więc pozostaje albo walnięte CPU, albo VGA-która jednak działa na drugim kompie. Co gorsze w tej sytuacji nie można nawet zflashować biosu-buuu wiedzialem ,ze Abit jest marudny ,ale żeby aż tak?
  14. BezbronnyPL

    Jego Ekscelencja K10

    Naprawdę bardzo dobry art o K10 jest na tej stronce-> RealWorldTech Wiele grafik, i sporo tekstu. Wracając do wzrostu wydajności o 40 czy nawet 50% , może taki nastąpić w pewnych zastosowaniach i jest to nawet prawdopodobne, ale już ogólny przyrost o takie wartości ?Byłoby fantastycznie ,ale raczej stawiałbym na 20% w stosunku do C2D.Intel też szykuje odpowiedź na Barcelone ale póki co K10 jest w fazie prototypu, także wszelkie próby oceny szybkości tej architektury mogą okazać się nieprawdziwe.Jedno jest pewne-idąc tropem C2D +własne rozwiązania ,AMD może poważnie zagrozić Intelowi. edit nie wiem dlaczego, ale nie mogę dołączyć załącznika (pdf o optymalizacji oprogramowania pod k10)
  15. Tak, masz w 100% rację -żle się wyraziłem z tym "potrzebuje wiecej niz 1,2V ".chodziło o zdolnośc do utrzymania 1,2V pod obciążeniem.Miiałem wcześniej odpisać -ale jakoś zapomniałem. A co do testów aparatów na dppreview polecam jeszcze(chyba juz to podawałem) ->tą stronkę
  16. BezbronnyPL

    Jego Ekscelencja K10

    szybki test barcelony Ogólnie nie sądzę ,żeby K10 było 40% szybsze od C2D jak nieraz się przewija w dyskusjach.Te enigmatyczne 40% podane chyba przez kogoś z AMD przy okazji testów , dotyczy raczej wzrostu wydajności w przeliczeniu WAT,a nie czystej mocy obliczeniowej. Realnie wzrost wydajności można ocenić na 10-20%, być może w szczególnych przypadkach będzie większy, jednak nie liczyłbym na kompletną miazgę Core 2 Duo. Niektóre rozwiazania , jak Hyper Transport 3.0 w typowych domowych zastosowaniach raczej nie przyniosą wymiernych korzyści, co innego w serwerach gdzie szybka komunikacja między CPU jest istotna. Podobnie jest z zarządzaniem energią, gdzie poszczególne rdzenie mogą niezależnie zmieniać częstotliwość pracy.Na starszych podstawkach, tej funkcjonalności -z tego co można wywnioskować -nie będzie , ale z drugiej strony, dwu rdzeniowe wersje nowych CPU docelowo przeznaczone na masowy rynek, zbytnio nie ucierpią jeśli zostaną posadzone na starej podstawce, kilka watów więcej, dla większości użytkowników nie zrobi różnicy. Pozostaje czekać na na jakieś bardziej wartościowe testy.
  17. BezbronnyPL

    Jego Ekscelencja K10

    Tu jest IMHO najlepszy artykuł o nowym CPU firmy AMD. art na AnandTech Widzę ,że sporo osób jakoś niespecjalnie wierzy w możliwości K10, podając jako przykład R600 ,który okazał się, może nie rozczarowaniem ale pozostawił niesmak z niedosytem(nie wiem czego więcej).Osobiście nie wrzucałbym do jednego worka kart graficznych AMD i ich procesorów.Jak wiadomo , AMD kupiła ATI i generalnie nie można porównywać dokonań AMD na polu GPU i CPU. ATI tak naprawdę tylko raz poważnie zagroziła nvidii, gdy tej ostatniej powinęła się noga na serii FX(co było zapewne skutkiem ubocznym konfliktu z Microsoftem dotyczącego konsoli Xbox i chipu graficznego ,który zaprojektowała NV),seria R300 to jedne z najbardziej udanych GPU w historii. Obecnie ATI/AMD nie może rywalizować z NV gdyż ciągłe opóźnienia względem konkurencji stawiają ATI w znacznie gorszej sytuacji. Niemniej jeśli chodzi o rywalizację AMD vs Intel ,to jest to zupełnie inna sytuacja.Nie chcę już zbytnio wchodzić w szczegóły, ale ogólnie mówiąc, każda odpowiedź AMD na nową architekturę Intela to było coś wydajniejszego od konkurenta. Wystarczy przypomnieć AMD K6(K6-II),a szczegolnie K7 ,gdzie pojawienie się Athlonów i Duronów miało ogromny wpływ na rynek PC. Wystarczyło wspomnieć ,ze w większości wypadków znacznie tańszy Duron miał wydajność porównywalną do Pentium III, a już Athlony byłu wydajniejsze.Oczywiście CPU AMD grzały się znacznie bardziej , a i wielu ludzi i tak wolało Intela.Niemniej pojawienie się K7 ,tak naprawdę pozwoliło za rosądne pieniądze dostać świetna wydajność.Odpowiedź Intela to P4-co tu dużo gadać, juz wtedy duża część ludzi z branży IT twierdziło ,że P4 to dziwny twór-pierwsze wersje ledwo rywalizowały z najszybszymi P III często przegrywając(proponuje poczytać stare testy -np. na THG).No ale P4 miały wysokie zegary...i wraz z nimi(i Net Burst) miała iść wydajność.Jak pokazał czas NB to ślepy zaułek, i tak naprawdę P4 obroniło sie tylko dzięki potędze Intela,mimo wszystko przyzwoitej przyzwoitej wydajności, marketingowi , przywiązaniu do marki, no i kontraktami u największych graczy na rynku IT. Rywal P4 czyli Athlon XP ,był wydajny i tańszy ale produkcja w starszej technologii ,w większym wymiarze 0,18um,potem 0.13um,oraz używanie 200mm krzemowych wafli,oraz niemożność osiąginięcia wyższych zegarów, nie pozwalała AMD na walkę z Intelem o marketingowo nośny tytuł najszybszego CPU. Ale już K8 pokazał na co stać AMD, praktycznie pod każdym względem A64 to krok naprzód w rozwoju CPU: 64-bity,Cool'n'quiet,Execute Disable Bit,a przede wszystkim wbudowany kontroler pamięci,oraz ulta nowoczesna szyna Hyper Transport(zresztą zastosowana już w chipie nForce 2). Tak naprawdę przez kolejne lata od 2003 roku( od premiery A64) Intel był w stanie tylko kopiować rozwiązania AMD , zwiększać szybkość zegara, i promować Hyper Thrading.Nic poza tym . "Ratunek" dla Intela przyszedł z z izraelskiego centrum badawczego , gdzie panowie inżynierowie postanowili odkurzyć starą architekturę Pentium III, co zaskutkowało pojawieniem się fantastycznej platformy Centrino. Od Centrino do Core 2 Duo-czyli PIII po ostrym tuningu.Kilka cech jak duży współdzielony cache L2(będący odpowiedzią na wbudowany kontroler AMD), instrukcje SSE w jednym cyklu zegara, zaawansowany prefetcher, nowczesny wymiar technologiczny,dwa rdzenie. Po kilku latach udało się pokonać K8. Teraz czas na odpowiedź AMD. I co my tu mamy?To, co świetnie sprawdziło się w C2D czyli: usprawnienia w wykonywaniu instrukcji SSE, zaawansowany prefetcher ,plus nowy rodzaj prefetchera wbudowany w kontroler pamięci i obsługujacy DRAM-czyli obsługujący/otymalizujacy żądania dotyczące pamieci ,dochodzi jeszcze cache L3 do którego ma dostęp każdy z rdzeni,lepsze zarządzanie energią, i kilkadziesiąt innych usprawnień. Także może na polu rywalizacji z NV ,AMD/ATI póki co ciężko idzie -mam wrażenie ,że specjaliści os sterownikow nie nadążają za inżynierami projektującymi R580/R600, niemniej jeśli chodzi o CPU jestem dobrej myśli.Pokazała to historia rywalizacji Intela z AMD. Oby tylko polityka cenowa AMD była przyjaźniejsza niż ta z sprzed czasów C2D. I polecam art z linku.
  18. Jeżeli chcesz zaoszędzić to kupuj oryginały.Są sprzedawane w blistrze,brak blistra=zróba. Tylko w przypadku BL-5C trzeba uważać by kupić jej nową wersję o zwiększonej pojemności 970mAh,blister w tej wersji ma zielony pasek.Stary typ ma 870mAh i blister biało niebieski/granatowy(?) nie ma zielonego paska. Dodatkowo kupno starszej ,to niemal na pewno jeszcze niższa pojemność -li-on po leżakowaniu tracą swoją pojemność. Nie wierz w żadne li-poly za cenę ~20zł,osobiście wolałbym by do obudowy BL-5C Nokia pakowała ogniwa li-poly (skutkowało by to większą pojemnością baterii,kosztem mniejszej ilości dopuszczalnych cykli ładowania) ale tak nie jest. Zawsze możesz sprawdzić oryginalność baterii na stronie nokii-gdyby coś było nie tak- zwrot.
  19. BezbronnyPL

    Geforce 8600 GTS / GT

    Jeżeli chodzi o pamięci , to Data Sheet (PDF) jest generalnie dla producentów/inżynierów, i jest to pełna specyfikacja modułów, najczęściej zatwierdzona przez JEDEC.Kontroler pamięci w GPU jest projektowany pod określone typy , i trudno sobie wyobrazić jego projektowanie nie znając specyfikacji kości. Także nie ma co się dziwić ,że timingi się nie różnią, przy kościach tego samego rodzaju.Inna sprawa to sami producenci, konkurencja zmusza do oferowania czegoś innego niż wszyscy, każdy sposób na klientów jest dobry ,gdy produkty poszczególnych firm, odróżnia często tylko naklejka na wentylku. Najlepsi /najwięksi mogą zamawiać selekcjonowane moduły-z reguły dotyczy to, niebotycznie wykręconych, high-endowych kart.Na masowym rynku trzeba radzić sobie inaczej, także zwiększone Vcore ,czy zmienione timingi to dobry sposób na darmową wydajność. Inna sprawa ,że timingi typu(CL) Cas Latency itp. wciąż są nie do wyedytowania, a często tylko kilka drobnych ustawień(ale za to kluczowych) decyduje o podkręcalności pamięci. Zresztą daleko nie trzeba szukać-DDR/DDR2 najczęściej od razu tracą stabilność przy zbyt niskim CL, i wie to każdy kto bawi sie w OC. :) Widzę ,że nibitor urósł do rangi podstawowego narzędzia, do zabawy w pierwszych chwilach posiadania nowej karty :D
  20. Osobiście mam ustawione "Kiedy dostępny"=zawsze on-line.Różnica jest taka ,że sesja GPRS/EDGE/UMTS jest ciągle podtrzymywana -teoretycznie w nieskończoność-jednakże w praktyce, operatorzy przerywają ją po jakimś czasie.Generalnie "zawsze on-line" jest dla nas korzystniejsze ze względu na niższe koszty pakietów.Jak zresztą zauważyłeś. Akurat mam odmienne zdanie , "nowszy symbian" jest powtarzany jak mantra przy zaletach nowych smartfonów.Tymczasem baza programów dla series 60 V1 i V2 jest sporo większe i budowana latami. Zanim do tego stadium dojdzie 9.xx minie jeszcze sporo czasu.Do tego część aplikacji oferowana jest w dwóch wersjach" dla symbian v2i v3.Kłopot zaczyna się przy korzystaniu z GPS, większość nowych programów nawigacyjnych, opracowywana jest tylko dla Symbian 9.xx.Nowszy system jest szybszy ,stabilniejszy, i ogólnie wygląda trochę lepiej -również z uwagi na lepsze wyświetlacze nowych modeli smartfonów.Niemniej nie jest to przepaść, mam na bieżąco porównanie z N73, i oprócz zalet samego smartfonu trudno podniecać sie samym symbianem.Dodam jeszcze ,że znam całkiem spora grupę ludzi , którzy używają "symbianowców" i w ogóle nie mają o tym pojęcia, lub nie znają możliwości tego OSu-dla nich telefon "ma funkcje",robi" to i tamto" ,ma fajne "to i to" itd. Więc oddzielmy zachwyt nad funkcjami telefonu a samym symbianem,bo póki co to na starszym OSie mamy więcej możliwości. @Kaeres A jeśli chodzi o N70 czy inne "starocie" to można na nich: -odtwarzać filmy avi(divx) z napisami.Co prawda czasem szkoda filmu,ale seriale ogląda sie bardzo dobrze, obejrzalem kilka odc.The Simpsons,Kompanię Braci-świetna jakość obrazu.Zero pikselozy znanej z formatu 3GP. -uruchamiać niezłe gierki w formacie .sis(póki co na OS9,xx 95% gier to dość marne gry JAVA,choć zdażają się perełki). np.Doom 1 z PC(quake 1 też jest ale gorszy),Cannon Fodder (hit z Amigi), czy Another World(hicior z PC/Amiga) -uruchamiać gry z N-Gage(niemożliwe na OS9) ,co prawda nie wszystkie i czasem z problemami ale ich poziom jest bardzo wysoki.Wczoraj uruchomiłem Colin McRae 2005-żywcem gra przeniesiony CMR 2002 z PC -wszystko identyczne ,fantastyczny gamplay jak na komórkę. -uruchamiać emulatory Game Boy,lub lepiej SNES z takimi hitami jak Mortal Kombat ,Flashback i innymi.Romy gier dostępne są za darmo na wielu stronach. -o GPS,słownikach itp tylko wspomnę. Generalnie słuchawka z symbianem to konsola,miniaturowe centrum multimedialne itd. Czasem ta różnorodność szybko się nudzi, i w ogóle nie korzysta się z tych możliwości,lub wykorzystuje się ich tą część. która w innych telefonach działa lepiej /szybciej(vide aparat z k750i+jego player mp3).Mnie najbardziej przeszkadzają rozmiary samej słuchawki, dlatego chętnie powitałbym symbiana w mniejszej formie -czekam na pojawienie się Nokii 6120 Classic i może pomyślę o zmianie...
  21. Witam! Również myślę nad LCD 20"-22",po wstępnym rekonesansie zwróciłem uwagę na 2 monitory, z tego co widzę akurat była o nich mowa, a mianowicie samsung 225 i 226 BW. 226BW ogólnie mi się spodobał, lecz zastanawiam się nad upierdliwością jego mankamentów tzn.braku regulacji wysokości oraz kąta nachylenia (?), wykończenie " glossy piano black", również budzi moje obawy, podobnie jak czarna ramka. Stąd pytanie brzmi czy te braki w ergonomii są bardzo odczuwane ,czy można je przeżyć?Bo z tego co widzę 225BW jest pozbawiony tych wad i jest tańszy. Za 226BW przemawia niewątpliwie świetny design, nowość(czyli panel ciut lepszy)-i to by było na tyle. Biorę pod uwagę wersje 20" tych monitorów ,nie wiem jak przedstawia się róznica w jakości obrazu na tych monitorach, rozdzielczość mają identyczną stąd zastanawiam się czy obraz na 22" nie będzie pr przesadnie ziarnisty. Co prawda oglądałem rózne LCD w sklepach, ale szczerze powiedziawszy jak pójdę do sklepu wolę mieć już wybrane modele. Jeśli chodzi o zastosowanie -typowe :www/tekst 65%, filmy 30%,gry 5% . Bo generalnie połyskliwa czerń =widoczny kurz,czarna ramka=gorzej dla oczu,brak regulacji wysokośći=hmm . Ciekawy jestem czy można przełaczać w obu LCD-kach ręcznie DVI na D-Sub,może mi się to przydać.
  22. Ja akurat też przeniosłem sie do PLAY.Powód?Przede wszystkim tragiczna jakość połączeń w Erze w Łodzi(podobno w innych miastach jest znacznie lepiej)tzn. trzaski w czasie rozmów, przerywanie połączeń, nie słyszę rozmówcy lub on mnie, half-rate- niemal zawsze, telefon potrafił przełączać się na odległe BTS -y kilka razy, leżąc tylko u mnie w pokoju. A teraz mam naprawdę niezłą jakość połączeń-i jest to słyszalna różnica,zasięg UMTS(chociaż w Erze też był),takze 3G na wyświetlaczu non stop i opera śmiga jak marzenie. I nie muszę się zastaniawiać nad pakiecikami,sms-ami za 5-9zł itp. bzdetami.Przynajmniej wiem ile płacę. Dam im(PLAY) szanse, choć dostrzegam wady ich oferty-mam nadzieję ,że jeszcze ją poprawią .
  23. Widzę ,że sporo osób się rozmarzyło i chcieliby wyposażyć kafeje możliwie najlepiej /najefektowniej itd. Osobiście uważam ,ze w dzisiejszych czasach kafejka internetowa, to dość ryzykowna inwestycja z uwagi na upowszechnianie się szybkiego internetu(ludzie mają łacza 1-2 Mb w domach kiedyś takie były w kafejach), i mimo wszystko niewielką liczbę hardcorowych graczy-na których to widzę- nastawia się pomysłodawca tego biznesu. Tak naprawdę duża część kafejek utrzymuje się z usług, tzn. drukowanie dokumentów, ksero, bindowanie ,serwis komputerowy itp.Gracze to dodatek-choć istotny- bo tacy ludzie umawiają się w kilka/naście osób na nocne pykanie w UT,Quake itd.itp.Ale oni nie przesiadują non-stop. Dlatego moje sugestie są takie: -nie pakować sie w drogie dodatki typu extra obudowy,pro myszki itp i za zaoszczędzone pieniądze kupić solidniejsze zasilacze, o możliwie największej efektywności/sprawności ,bo bedzie miało to wpływ na rachunki za prąd. -rozważyć zakup LCD zamiast CRT.Pobór prądu przez LCD jest o ponad połowę mniejszy niż CRT i taki monitor łatwiej będzie (ewentualnie) sprzedać niż "bańke".Można rozważyć zamknięcie monitora za szybą(czyli wykombinować /zamówić obudowy-jest to wykonalne) . Choć CRT również posiada zalety- jak wspomniana wcześniej możliwość dopasowania rozdziałki do wymagań gry, i posiadanego sprzętu. -w części kompów zainwestować w płyty z obsługą SLI- tą część posiadanych zestawów łatwiej będzie zmodernizować ,przekładając karty grafiki od pozostałych komputerów.W ten sposób w relatywnie tani sposób możemy mieć wydajne zestawy,pomimo ich starzenia . -jeśli chodzi o dyski twarde to IMHO ~120Gb, to rozsądny wybór.Dyski z 8mb cache / SATA (II)i możliwie najdłuższą gwarancją.Takie będzie można ewentualnie sprzedać-w razie czego... -jeśli chodzi o CPU,IMHO AMD X2 Brisbane 3600 (+ lekkie i stabilne OC) powinno wystarczyć w zupełności. -można część kompów wyposażyć nieco lepiej niż pozostałe(do CS-a nikt nie potrzebuje GF8800).Gdy zestawy zaczna się starzeć, części z tych lepszych(głównie karta grafiki) można dokładać do najsłabszych ,z kolei część najsłabszych doposażać przez wspomniany wcześniej myk ze SLI. W ten sposób, kafejkowy sprzęt można relatywnie tanio unowocześniać. -wybierać sprzęt dobrych firm z dobrym serwisem,a karty grafiki i pamięci wybrać wśród modeli popularnych na forach-i mających dobrą renomę (vide Galaxy).Nie kombinować z 10 markami płyt i czy kart grafiki. Generalnie trzeba to wszystko dobrze przeliczyć-graczy będzie interesować przyjmność zgrania,sprzęt jest ważny ale nie ma co popadać w skrajności-czyli wyważone zestawy,dobre łącze(może nawet 2 niezależne od rożnych dostawców). I tyle. PS-mam znajomych, którzy mieli kafeje i trochę u nich przesiadywałem.
  24. Osobiście korzystam z opery mini od dawna-i o ile wyświetlacz telefonu ma odpowiednią wielkość,to przeglądanie stron jest bardzo komfortowe-szczególnie wtedy, gdy mniej więcej znamy układ strony. Z onetem nie mam najmniejszych problemów, podobnie ze sprawdzaniem stanu konta w (m)banku,oraz innymi stronami -łącznie z forum PurePC,czy Alegro.Wyłączyłem tylko opcje "zwijanie zawartości" ,bo na niektórych stronkach nie wyświetla wszystkiego-gubi czasem połowę strony(Onet). Choć gdy posiadany telefon ma naprawdę niewielki wyświetlacz ,przeglądanie stron jest faktycznie uciążliwe, i tutaj Opera mini jest raczej zbędna. A co do przyszłości WAP-u ,uważam że zwykły internet w komórkach pojawi sie szybciej na masowym rynku, niż specjalne przygotowywane strony mobilne zdobedą powszechne uznanie. Przyszłość, to UMTS(HDSPA,HSUPA )i taniejący transfer,a tutaj nie ma miejsca na prosty i mało efektowny WAP. Choć nie znaczy, że WAP jest niepotrzebny-nie każdy potrzebuje WWW na 2,5cm ekranie... EDIT Operę Mobile mam-ale jeszcze nie zainstalowaną- chcę ją potestować bo jestem ciekawy różnic ....:) , na razie Opera Mini mi wystarcza,no ale jak wer. Mobile jest lepsza...no cóż ,lepsze jest wrogiem dobrego.
  25. Może nie w temacie, ale Opera Mini ->LINKY, i można pożegnać wybiedzone strony WAP. W ten sposób mamy dostęp do każdej zwykłej strony WWW ,dysponując słuchawką z EDGE-lub lub lepiej- UMTS, strony ładują się ekspresowo.Wagę stron można obniżyć wyłączając pobieranie obrazków, w ten sposób można zaoszczędzić na kosztach. P.S.-Napisałem posta bo wydaje mi się ,że wielu ludzi jeszcze nie wie o tej przeglądarce,pomimo tego ,że to żadna nowość.
×
×
  • Dodaj nową pozycję...