Skocz do zawartości

לוק

Stały użytkownik
  • Postów

    458
  • Dołączył

  • Ostatnia wizyta

Treść opublikowana przez לוק

  1. jak cos to zawsze bierz tu, maja kilka biosów do czego Ci potrzeba, jedyny ratunek jak cos spaprolisz i nie nagrałes orinalnego albo nie masz od kogo brac :wink: http://www.mvktech.net/component/option,co...arent,category/ tylko nagraj stary!!!!!!!!!!!!! :D :wink: bo do Asusa chyba nie maja, wiec w razie gwary bedzie konieczny, pewnie wisz o tym ale tak z zyczliwosci mowie, zebys sobie nie zapomnial i bedzie kłopot :wink:
  2. co ty tak naprawde wierzę, zalezy od ilosci posiadanyej gotówki i motywacji, ja tylko smiem twierdzic ze to imo z deczka głupota, a troche cierpliwosci nikomu nie zaszkodzi, reszta czysta spekulacja :lol2: ale zkladam sie o honor ze bedzie tak jak mówię, bazuje tylko na potwierdzonej doswiadczeniem regule, choc tutaj sparawa jest jeszcze prostsza ale nie bede robic OT i juz teraz mówie ze ceny za 1 do 1,5 roku beda takie jak najdrozsze obecnie Core-ki, you'll see :wink: wystarczy tylko wziac pod uwge brak wsparcia dla starego socketu, przez jakis czas beda jeszcze dostepne płyty pod 775, ale coraz nizsze ceny ddr3 i ogolne przejscie producentów plyt głownych na nowy standard, zmusi Intela do obnizki cen, skoro wszsytkoma sie spopularyzowac, ceny płyt głownych spadna do dzisiejszych hi-end-owych odpowiednikow wiec wszsytko bedzie w normie bez takiego przegiecia i to nie zadna teoria a normalna rynkowa kolei rzeczy, skora nie beda robic płyt pod 775 to i ceny nuie moga byc z kosmosu dla potencjalnego odbiorcy, rowniez ceny cepow nie moga odstraszac bo sprzedaz zmaleje, z reszta wszystko ma swój plan, ajk zawsze intel wie kiedy wprowadzac obnizki i to potrafi robic drastycznie, EDIT. http://diy.pconline.com.cn/cpu/reviews/0810/1438115_9.html po co nam te procki przez najblizszy rok moze i dłuzej? bo nie sadze zeby wczesniej był realny zysk z HT w grach :D :D własciwie to nie sadze zeby w najblizszech 2-3 latach znajac kwapliwosc producentów :lol2:
  3. nikt nie wątpi :wink: ale wszystko jak mówisz wiaze sie z presja, i oczywiscie czasem, ja juz nie zrobie tego błedu i nie rzuce sie na pierwsze lepsze rewizje, poczekam nawet do 1,5 roku, ceny znaczaco spadna, mnogosc cepów mysle bedzie juz wieksza, czesc wad płyt głownych zostanie wyeliminowana, wogole bedzie juz duzo wiadomo na ten temat i dopiero zastanowie sie na zmiana platformy, za rozsadne pieniadze, czyli np. do max 600 zł procesor i w podobnej cenie płyta, i jakis komplecik dobrych ddr3 za lekko ok 300zł, czyli nie wicej jak 1400 zł za całego kompa bez grafiki, i ani złocisza wiecej, ciekawe kto kupi procesor za ponad 2 tysiace w dniu premiery i płyty po min. 800 zł na poczatek itp. i okaze sie ze po roku całosc spadnie o połowe, o nie , z reszta bez koniecznosc to wogóle nie bede zmieniac, jak faktycznie gry mi beda ciąc to dopiero sie zastanowie :lol2:
  4. rzecz ma sie jak z q6600 vs e6600 w Lost Planet, przyrost ok. 35-40%, jesli oczywiscie aplikacja silnie korzysta z 4 jajek, w tym wypadku jak napisał kolega 4 rzdenie i po 2 watki na rdzen daje 8 a nie 4 i dlatego mamy 52% wzrostu, ale gry i tak korzystaja z 2 rdzeni nadal, w zwiazku z tym bedzie trzeba sporo czasu nim producenci pzrestawia sie na wielowatkowosc, choc podobno juz 2 rdzenie sparwialy sporo problemów, na mój gust to za 2 lata albo pózniej upowszechni sie moda na 4 rdzenie lub wiecej w grach i wtedy takie procki faktycznie sie przydadzą, bo jak wytłumaczyc dzisiaj duza popularnosc procesorów pseudo 4 rdzeniowych (a faktycznie 2 sklejaki Core2Duo) i bardzo mała liste gier z obs. 4 rdzeni, choc moze własnie wtym tkwi problem ze nie sa to prawdziwe procesory 4 rdzeniowe a tylko połaczone dwa dwu jajowce i dlatego problemy z wykorzystaniem wszsytkich 4 w grach, teraz podstawowy nahalem ma byc procesorem prawdziwie czterrdzeniwym choc architektura uległa całkowitej zmainie, podobno w pzryszłosci maja sie pojawic procesory bez wbudowanego kontrolera pamieci oraz z wbudowanym rdzeniem graficznym, czy to prawda nie wiem, tak gdzies przeczytałem, z reszta ja tam nic nie mówie moze i faktycznie bedzie wieksza wydajnosc w grach kto wie, zobaczymy niebawem, tylko ta cena troche duza, nie maja konkurencji wiec szaleja
  5. bede mial spphire w poniedzilek/wtorek, sprawdze jak to jest, ale od razu Ci mówie ze CCC jest problematyczne, moze spróbuj zainstalowac sam sterownik ekranu bez CCC, moze faktycznie bios Asusa jest jakis walniety, mozna spróbowac innego producenta np. Sapphire, a starego nagrac i trzymac w razie czego jak karta maila by isc na reklamację, ja bym zainstalowal tylko sterownik ekranu i ATI Toolsa albo nawet i nie, sam sterownik i sprawdzil czy jest lepiej, u mnie jak mialem karte u siebie pokazywało prawidłowo x16 na obu rdzeniach, bardzo denerwujace jest to AI na CCC, wył. ta opcję wył. jeden z rdzeni, nawet na egiełdzie o tym pisali "ze niby gdzie zwykly uzytkownik ma o tym przeczytac" ale taki jest, spróbój zrobic to zanim oddasz na gware: 1. sam sterownik(ewentualnie ATI try Tools) 2. jak nie pomoze zmiana biosu na innego producenta np Sapphire i wróc do 1. 3. w ostatecznosci stary bios i gwara
  6. :lol2: http://www.egielda.com.pl/?str=news&id=3719
  7. a mam pytanie, sprawdzales na samym sterowniku czy razem z CCC?
  8. לוק

    Far Cry 2

    proponuje wszystkie filmiki z GT, tam widac dokladnie co gra nam zaoferuje, ja juz widze ze samo prowadzenie ognia duzo lepsze jak wCrysisie, moze nawet lepsze jak w COD4, po drugie klimat, pierwszy chyba fps osadzony w Afryce, podoba mi sie ze kamera podczas jazdy jest stale z FPP, chyba model jazdy lespzy jak w Crysisie, oczywisie nie porównuje tej gry do Crysisa, nawet nie bede porównywał do Farcry-a bo widac zupełnie inna rekę w grze i poza nazwa i paroma wspólnymi elementami(paralotnia i takie tam..) dla mnie to zupełnie inna gra, dynamiczny i rzeczywisty system pogody, ogólnie cos w grze jest ze napewno bedzie mi sie podobac, choc ostanio trudno zaspokic moje apetyty, i tak naprawde poza CoD4 nie wiele mi sie podoba nowosci z gatunku, wydaje mi sie ze F2 nie bedzie miec nic wspólnego z GTA, fabuła jest całkiem niezła pzrynajmniej mi wiecej nie potrzeba i własnie w FPS nie szukam super fabuły, poprostu patzre raczej na gre pod katem multi, tzn nie chodzi o to zeby garc tylko w multi, ale inne aspekty sa dla mnie kluczowe, pzredewszystkim grywalnosc, klimat, grafika to oczywiste, ale bardzie chodzi mi o klimat graficzny stylistykę ta w F2 bardzo mi sie podoba uwazam ze jest lepsz jak w CoD4, albo przynajmniej na równi, dalej wyglad broni np. w CoD4 giwery pzrypominaja mi zabawki dla dzieci ale to akurat mi pasuje bo taka jest konwencja gry, zawsze z reszta była, duze dzieci bawia sie w wojenkę, przynajmniej tak to wygladało w multi, nastepna wazna rzecza jest prowadzenie ognia i charakterystyka poszczegolnych broni, zakres ruchów, predkosc spowolnienia, rozrzut itp, tu wyglado to bardzo dobrze, w dodatku jeszcze Ci sie zacina albo wogole rozpada w rekach, sporo elementów jakie lubie np. nastawianie kosci, wyciaganie roznych elementów które bardziej lub mniej pzrypadkowo pzryjelismy na siebie, złote strzały :) pewnie czysta adrenalina, mapka i lupka to wdług mnie bardzo trafine zreczy, jest skradanie, spaecjalne spowolnieie kamery i wyglada to tez dobrze, mozna naprawiac pojazdy, wszystko to wpływa na dynamike i podniesiony puls, a przy tym nie jest meczace tj. pzresadzone, no jednego co rzeczywiscie brakuje to drapiezników, nie bardzo to pasuje do klimatu, fajnie wygladaja rzeki, wawozy, łodzie i jest naprwde spora otwartosc terenu, niby w Crysisie tez była, ale jak grałem to pomimo tego ze mozna było to robic z róznych stron to w wiekszosci leciales po oraniczonym terenie, nyły i mapy naprawde duze i otwarte ale mało, ja czekam na ta gre bardzo i raczej sie nie zawiode bo i oczekiwania jak narazie spełnia całkowicie,oby :)
  9. לוק

    Warrock

    gra w to ktos z was? zainstalowalem sobie ta gre, załozyłem konto jak trzeba na stronie, odpalilem, ladnie sie gra sama zaktualizowała, wchodze na głowny ekran, mam takie opcje: connect, manual, options, exit, wybieram zatem connect no i wpisuje tak jak sobie zlozyłem na stronie czyli username i password, z cyferkami bo tak tez było na stronie, no i po kliknieciu na OK, nic sie nie dzieje a po chwili OK robi sie nie aktywne i moge wybrac tylko cancel albo "x", pogrzebałem w sieci ktos miał ten sam problem, i nikt mu nie pomógł, wiecie jak to zrobic, moze poprostu serwery sa nie dostepne narazie, moze jakiegos patcha trzeba dograc, choc tak jak mówie gra mi sie sama aktualizowała i to sporo mega zassało, pomózcie mi
  10. לוק

    Geforce GTX 260/280

    o tym mówie :lol2: przy 100 fps w krytycznych momentach spadnie ponizej 70 fps, przy 300 spada do 120 i w sumie róznicy sie nie czuje, no ale 80 slotów to lekkie przegiecie mysle :D nie grałem ale musi byc miazga nawet na najlepszych procach i kartach
  11. לוק

    Geforce GTX 260/280

    taaaaaaaaaaaaaaaak, tylko niech wszyscy sie wypróznia z granatów naraz na mapie przy 100 fps a przy 300 fps, ja nie czuje roznicy jak jest powyzej 120 fps, jak spada do 100 i ponizej choc to juz nie teraz tylko kiedys, nie grło mi sie za dobrze, dawaj Piotrek swojego Xfire-a to Cie znajde i zabije :lol: ... jak mi wreszcie karte przysla
  12. לוק

    Geforce GTX 260/280

    prawda jest taka ze jeszcze guzik wiadomo, karta pojawila sie w ofercie jakiegos zagranicznego sklepu, i z informacji wychodzilo ze bedzie dostepna w sprzedazy pod koniec tego roku, zbadano sprawe i jest to prawdopodobne czyt. wiarygodne:), poniewaz specyfikaja karty pokrywala sie po czesci z tym co wyciekło z firmy na temat GF 350, ja mysle ze jest duza szansa, jesli chodzi o GT212 i slabszego GT206 to newsy na temat tego były w połowie wrzesnia, natomiast te dotyczace GF350 pojawily sie po 20 wrzesnia, czyli pozniej to i tak narazie wszystko spekulacje
  13. לוק

    Geforce GTX 260/280

    koniec roku, moze zaraz na pocztaku, kto wie, przeciez zawsze moga odsunac troche, ale oficjalnie koniec br. roku, swoja droga niezłe monstrum; 480 procesorów strumieniowych;2GB pamięci GDDR5 pracującej na szynie 512bit oraz 64 jednostki TMU; przypuszczalnie 830MHz dla rdzenia, 2075MHz dla procesorów strumieniowych oraz 3360MHz dla pamięci: GT300 wykonany bedzie w wymiarze technologicznym 55 nm: ciekawe ile to bedzie zarło prądu:D
  14. לוק

    Far Cry 2

    normalnie nie wytrzymuje jak facet mówi o dzwiekach w grze nie moge sie doaczekac, musicie to zobaczyc :wink: http://www.gametrailers.com/player/40510.html
  15. לוק

    Crysis: Warhead

    i uwazasz ze tu byl atak na cokolwiek? dokladnie Sualco, tak jak mówisz wyraziles swoja opinie i masz do tego pelne prawo, mastertab ja czegos nie rozumiem, myslalem ze to w kodach samej gry jest dokladnie sprecyzowane jakie ma byc oswietlenie, jakie detale jaki stopien HDR itp, no bo przeciez sa odpowiednie komendy nawet w samych config. i mozna to regulowac, myslalem ze z tego stopnia informacje sa ze tak to ujme przerabiane przez sterownik i w efekcie koncowy obraz na monitorze, a tu wychodzi ze ATI tak bardzo ingeruje w sterowniki i pies wie co tam robi, ale w efekcie to nie aplikacja kieruje efektami(wiem ze odbywa sie to przez sterownik ale wytyczne ida od gornie, czyli z samej gry)a sam sterownik przeanalizowuje i wl. co mu sie podoba walac dyrektywy aplikacji, czyzby az takie waly robilo ATI, bo dlaczego sa wogole roznice na kartach graficznych ktore teoretycznie obsluguja dokladnie te same efekty, przeciez to gry ustalaja stopien detali, jak to jest czy ktos madry mogł by mi wytlumaczyc albo odeslac gdzie trzeba? no bo przeciez co to jest sterownik? oczywiscie mozna powiedziec ze to sam sterownik ekranu odpowiada za wyswietlanie efektów, ale tylko jesli powiemy wyraznie ze to aplikacja ustala co ma byc i jak wyswietlane, a sterownik powinien prawidlowo to przetłumaczyc karcioszce :26: ...nie?
  16. לוק

    Asrock 4coredual-vsta

    spox, ^_^ jak wiadomo ceny hardware-u sie zmieniaja, zalezy od kogo sie bierze, moze jeden dostawca sie wykruszy i trzeba szukac gdzie indziej itp. jak patrzyłem na zasilke w Icomp.pl to kosztowala 319 zł, kupilem w innym sklepie ciut drozej najlepiej to zobrazuje http://www.ceneo.pl/803985, dla mnie przedzil cenowy dla tego PSU to max 320 zł, i wlasnie na na allegro za nie wiele ponad 300 zł pakupisz http://www.allegro.pl/item443873237_salon_...nane_kable.html, w dalszym ciagu mysle sobie ze warto brac nawet jak mówimy o 340 zł tego szefa zamiast BQ550W, choc tak jak wymieniles roznice sa wiec co komu pasuje :gitarzysta2:
  17. לוק

    Crysis: Warhead

    mi mówili zebym dal karcie szanse bo jechalem po niej strasznie, coz... daje karcie szanse, ale i tak jest problematyczna, myslicie ze z czasem wszystkie problemy znikna, czy to jest tylko kwestia sterów.. czy czegos nie potrafia zrobic z sama karta?
  18. wieksza byl by roznica PCI-Ex16 vs x8 oczywiscie w wypadku CF, bo z SLI nie ma to juz takiego znaczenia, przynjmniej na kartach typu 8800 jakos widze tylko Support ATI CrossFire graphics cards 3109047[/snapback] z tego co wiem to w CF też się łączy wszystkie razem a można inne karty 4870x2+ 4850/70 ,4870+4850 lub 3850+3870 to chyba miałeś na myśli mówiąc "naprzemiennie" w zadnym wypadku nie polaczysz 4870 X2 i 48xx to bylo jedynie mozliwe z seria 3870 X2 i 38xx, odsylam do informacji, byla nawet na forum stosowna tabelka pokazujaca co mozna laczyc z czym i chyba tabelaka ta byla ze strony ATI, napewno jest gdzies tutaj proponuje poszukac.. wyjasnij jeszcze dlaczego tylko na X48 widnieje Support ATI CrossFire™X Technology graphics cards http://www.asus.com/products.aspx?l1=3&amp...amp;modelmenu=2 a tu naX38 brak tego http://www.asus.com/products.aspx?l1=3&amp...amp;modelmenu=2 sprawdz sobie innych producentow jak chcesz, BLUE twoja plyta posiada certyfikat CrossFireX i mozesz smialo pakowac drugiego 4870 X2 :wink: jesli oczywiscie widzisz w tym na dzis dzien jaki kolwiek sens :huh: sami producenci mowia ze sterowniki dla 48xx i CFX sa jeszcze mocno nie dopracowane, wlasnie czytam o tym przeterminowanego news- B-) a
  19. byem przekonany ze pene CrosfireX czyli wsparcie dla dwuch multi GPU lub 4 kart graficznych posiadaja jedynie plyty AM2 i nadchodzace x58, ostanio przeczytalem ze wparcie triple SLI nie zostalo jeszcze potwierdzone, choc plty jak najbardziej to oferuja, wiec napewno bedzie, napisalem ze na 99,9% plyty z 4 PCI_E x16 obsuguja CFX, wiec nie przeinaczaj ze jesli ich nie ma nie oznacza ze CFX nie dziala, mowisz ze nawet i975X obsuguje CFX, tak tylko w jakim standardzie? nic nie sugeruje ale wydaje mi sie ze PCI-E 1.1 i bardzo marnie by to wygladalo na 4870 X2, bardzo, takie plyty to dla 3870 X2 jak sie myle to mnie poprawcie, sa plyty co sie nazywaja CFX i posiadaja 3 gniazda PCI-E, i w takich mozna byo stosowac np. 3870 X2 (x2) plus 38xx, CrossFireX to wsparcie dla 3 lub 4 kart graficznych, chodzi o to ze aczy sie je naprzemiennie a nie jak w triSLI wszsytkie razem i najlepiej jak sa połączone poprzez magistralę PCIe 2.0 bo tylko wtedy uzyskamy pena wydajnos i moc i wlasnie pierwsze wprowadzily to pyty na chipsecie AMD 790FX, tylko ja mwie o CrossfireX w odniesieniu do PCI-E 2.0 i dwuch multiGPU typu 4870 X2, i jak to dziala, nikogo nie chcilem wprowadzac w blad, tak to widzialem, mozesz podac jakie pyty na i975 maja wsparcie dla CrossFireX? bo z tego co ja wiem to one obsuguja tylko dwie karty i nie ktore tylko jako x8 choc maja po 4 porty PCI-E x16 ale nie w wersji 2.0(chyba) raz jeszcze podkreslam, nikogo nie chce wprowadzac wblad, tak mi sie wydaje jak sie mule to prosze mnie poprawic
  20. לוק

    Asrock 4coredual-vsta

    raz, co wlasciwie wniosles piszac powyzszy post :blink: ?, dwukrotnie zostalo to powiedziane(sam proponowalem koledze Amaroxa), ale ok rozumiem ze musisz sie wyrazic, dwa, rozpoczales ofensywe na mnie za to ze ocenilem zasilke jako lepsza w sensie posiadajaca wieksza moc, i mieszczaca sie w przedzile cenowym w odniesieniu do BQ 450-500W, i jeszcze po tym wszsytkim bezczelnie stwierdzasz ze niektorzy uzytkownicy dzialaja Ci na nerwy? beeee...... powiem najdelikatniej jak umiem, wes sie drogi kolego opamietaj...
  21. daj juz spokój z tym spamem <_< jak cos wiesz badz doczytales na zagranicznych forach lub grzebałes w specyfikacjach, mów czy ktos miał by Ci nie uwierzyc? tylko pierwsza sprawa, znowu usiłujesz cos sugerowac, wspóldzielona pamiec to jedno, kto mówi ze sideport ma dostep bezposredni do pamieci RAM, za to odpowiada szyna danych pamięci, ja mówie ze jest dostęp do wszystkich danych miedzy innym z pamieci RAM, wspoldzielona pamiec to wtedy gdy GPU posiadaja dostęp do jednej pamieci zbiorczej, tutaj sa dwa gpu i kazdy z nich buduje scene w zaleznosci parzysta/ nie parzysta, ale i tak musi korzystac z tych samych danych o texturach itp(te dane sa jednakowe i przechowywane w pamieci kazdego GPU), i wlasnie zeby niepotrzebnie jeden GPU nie robil tego co juz zostalo zrobione przez drugie GPU moze słuzyc sideport, GPU wymienia sie danymi i pewne operacje zostana skrucone, oczywiscie GPU i tak to robia ale dzieki temu beda mialy do dyspozycji o 10GB/s wiecej, czy faktycznie to sie sprawdzi i jak mozna to wykorzystac i czy wydajnosc po przez to wzrasta okaze sie z czasem jak odpowiednie sterowniki powstana i w tym sensie mówie ze wszsytkie dane moga byc przesylane po miedzy GPU nawet te z RAM, RAM<---(szyna danych pamieci)--->GPU<----sideport--->GPU<---(szyna danych pamieci)--->RAM wypadalo by wiedzic jak wogóle wyglada przesyl danych w kartach graficznych, oraz budowa poszczegolnej sceny, co dzieje sie z GPU, RAM, roznymi mostakami i kontrolerami czyli podstawy, oczywiscie technika idzie na przód elementy stosowane w ukladach zostaja usprawnione ale ogolna funkcja pozostaje ta sama, masz racje sugeruje sie tym co pisza w polskich serwisach bo jest to miedzy innymi moje zrodlo wiedzy i informacji natomisat co do tego czy róznice widac czy nie, powiem Ci tak: kto nie chce ten uparcie powie ze nie ma róznic nawet jak mu pokazesz na screenie, taka przypadłosc i wielu ją posiada niestety, subytelne roznice sa, jak chcesz porób na Radku screeny podłogi w restauracjach, kawiarniach itp wszedzie na mpach zwłaszcza u arabusów, gdzie jest mozaika, u mnie wogóle nie bylo efektu na 4870 X2 a powinna sie mienic pieknie jak na 8800GT, a tak nie było, na screenie jakos wygladalo to lepiej i wcale nie wiem czy zobaczysz róznice, bo własnie w ruchu i pod roznymi katami patrzenia bylo to widac, to sie tyczy wszsytkich textur, scian, pojazdów itp, wiec troche trudno bedzie to pokazac-o to mi chodzi, w graniu czuc to bardzo
  22. oficjalnie potwierdzono wspólprace na X58 albo takie cos http://www.cluboc.net/reviews/motherboards...790FX/index.asp z intela to chyba własnie to http://www.intel.com/products/desktop/moth...xs-overview.htm choc nie wiem na 100% ale w testach jw. widac ze to sie sprawdza
  23. jesli twoja plyta posiada logo CrossfireX ready, niema problemu, ale z tego co wiem X48 nie obsługuje oficjalnie CFX, czy da sie to jakos na plycie wł, nie wiem, wiec bedzie tak jak mówi Maxforce, nawet jak pójdzie to moga byc problemy i bedzie wolniej niz na poj. karcie
  24. לוק

    Asrock 4coredual-vsta

    no i wdzisz na ile zenfist.pl wycenil ta zasilke, wdług nich zasilacz jest warty 400 zł, normalnie kosztuje tyle http://www.lorien.waw.pl/opis.aspx?kat=46&id=ObZ0081, na allegro taniej http://www.allegro.pl/item447141733_zasila...nane_kable.html http://www.chieftec.com/tubro-power.html Kwasior500------->... pytanie tylko czy testowali na Bioshock-u, to chyba najbardziej pradozerny tytuł dla kart :wink:
  25. dlaczego mówisz nie dziala, odpowiednia płyta i powinno hulac, http://www.intel.com/products/desktop/moth...xs-overview.htm ta ma 4 porty PCI-E dzialajace z pełna predkoscia x16, wiec skoro ma az 4 to teoretycznie wkladasz 4 single GPU i smigasz, albo 2 karty multi GPU, wychodzi na to samo, po za tym jeszcze plyty pod amd maja wsparcie dla crossfireX, jesli płyta posiada 4 gniazda pracujace z pełna predkoscia x16 to na 99,9% crossfireX na plycie dziala
×
×
  • Dodaj nową pozycję...