Skocz do zawartości

Raider

Stały użytkownik
  • Postów

    108
  • Dołączył

  • Ostatnia wizyta

Treść opublikowana przez Raider

  1. Raider

    Radeon Hd 2600 XT/Pro

    A sorki zapomniałem spieszylem sie do roboty ;) Z/stencil to taki buforek do obsługi szablonów odpowiadający za efekty cieni chmurek dymków itp A skąd ten wniosek ? To że nvidia gdzieś wkracza niekoniecznie oznacza zawsze ze jakosc sie pogorszy... przykladem moze byc timeshift gdzie wydajnosc obu platform stoji na poziomie najgorsze jest tylko to że nvidia zaczyna bardzo głęboko ingerować w jakość obrazu na swoich kartach takie manewry znacznie utrudniaja wykrycie prawdziwej wydajnosci która poźniej przekłada się na okres czasu wydajnego działania ich kart... działo się tak w przeszłości jak to nvidia pierwszy raz wydała na świat prawdziwą nowostkę techniczną - pełne wsparcie Shader 2.0 wydajności starczyło na bo ja wiem rok może 2 lata góra do dzisiaj nie ma opcji pogrania na karcie z serii FX ( na X800 dalej można popykać nawet w Crysis) i dzieję się tak do dzisiaj - w crysis odbicie wody na pewnych sterach typu beta HOT FIX nie było poprawnie wyświetlane ( jak brak smoka w 3d marku 2001 na kartach FX), gorsza wydajność na najlepszym silniku Unreal Engine 3... niedługo dojdzie do tego że nie pograsz sobie w grę jesli nie bedzie "Nvidia Its Meant to be played" bo wydajności nie starczy... teraz też wprowadzono rewolucje zwiazana głęboko z directx zobaczymy jak się to potoczy narazie nvidia radzi sobie dobrze ale są oznaki słabości...
  2. Raider

    Radeon Hd 2600 XT/Pro

    Heh tak sie składa że te gry co mozna wymienic na palcach jednej reki to własnie najlepsze wyznaczniki wydajności bo silników gier pod nowe karty graficzne jak na lekarstwo i tez mozna powiedziec ze wymienia się je na palcach jednej ręki. Dla mnie najlepszym wyznacznikiem jest Clive Barkers Jericho - nie zasmiecony nvidią ani ATI no poprostu czyściutki silnik Unreala 3, w tej grze cienie wyglądaja wyśmienicie shaderami aż sie kleji a wydajność kart ATI jest bardzo wysoka, podobnie jest z Bioshock ale bioshock został zmodyfikowany przez Nvidię i już tak piknie nie jest proporcja wydajnosci lekko na stronę Nvidii http://www.legionhardware.com/document.php?id=688&p=4 8600GTS słabszy od 2600XT... a różnica w cenie kolosalna pozatym stare sterowniki jeśli chodzi o radka catalyst 7.9
  3. Raider

    Wyostrzanie Obrazu

    Nvidia pozbyła się wyostrzania obrazu od serii 8xxx (dlatego teraz mam to co mam, przynajmniej posiada opcje zwiększenia nasycenia kolorów jak w nv od serii GF2 MX)
  4. Raider

    Radeon Hd 2600 XT/Pro

    No przeciez taki detal widać odrazu... Radek 2600 ma 120 zunifikowanych shaderów, podwójny Z/stencil (zeby generowac szybciej bardziej prawdziwe cienie) a GF8600 ma 32 zunifikowane shadery i pojedynczy z/stencil który go spowalnia jeszcze bardziej. Surowa moc karty nv jest znacznie wyższa ale gry przeciez takie surowe nie są ( chyba ze nvidia się wtrąci i poprzestawia to i owo) no i radki generują AA programowo na poziomie shaderów co jeszcze bardziej przybliza nam ih moc obliczeniową.
  5. Raider

    Radeon Hd 2600 XT/Pro

    schłodz jeszcze to: ( z drugiej strony też te elementy) U mnie przy 860 zwis windowsa :P
  6. Raider

    Radeon Hd 2600 XT/Pro

    Eh wieszać się może na każdym sprzęcie wystarczy kupić "codegena" ( rozumiesz o co mi chodzi BSOD itp ?) Catalysty nie mogą być z[ciach!]e - z[ciach!]y może być tylko system - ustawienia - brak znajmości sprzętu konkurencyjnego i jego konfiguracji - problemy mogą powstać na każdej platformie o jego znajomości swiadczą właśnie takie komentaże ktore przedstawiłeś. Instalacja sterowników może przebiec nieprawidłowo na każdej platformie jak ktoś się nie zna na tym że: Do ATI są oddzielne sterowniki AGP i PCI-Express to jest to wina użytkownika z reszta sam miałem soro problemów na początku z instalacją sterowników do 7300GT zaraz po jego premierze i tak samo z GF6600 i tak samo z FX5200 oraz GF1 Elsa Erazor X (256 bitowe pamieci SDR :P ) ( pozatym w nvidii t3a zmieniac stery jak skarpety bo optymalizacje jakies nowostki wprowadzaja co chwila to tylko świadczy o tym jak chaotycznie działa cała firma) a i miałem jeszcze 6800XT który był tak głośny że szkoda gadać. Ja szczerze nie miałem nigdy problemów ze sterownikami do ATI zawsze mi działały jak miałem radka 9600PRO i teraz jest tak samo czyli ZERO problemów z kartą HD2600PRO Gdzie ty mi o sterownikach wyjerzdzasz skoro nvidia robi takie buble jak "DRIVERBUG.EXE" LINK i to przecież jest gra z logiem Nvidia !! Ja nie jestem fanbojem ATI ani Nvidii jak napisałem wczesniej - podsumowałem tylko tekst zawarty w cytacie jednej osoby z grupy cryengine jakie to buble robi nvidia (oczywistym jest fakt że nie wiadomo co po kartach się spodziewać dopuki nie minie odpowiednia ilość czasu) Jedyne co probuje udowodnić to że taki radek HD2600XT czy wykręcony PRO może być prawdopodobnie i kartą bardziej przyszłościową od chociażby GF8600GT(GTS) a może i nawet 8800 zostanie w czasie zapomniany - podobnie było za czasów FX`ów jak to nvidia naprodukowała grafiki HI-END (za ~2000zł FX5900) z 4 jednostkami ROP później jednak to ATI przejeło pałeczkę z radkami 9800 i 9600 (9550) Jak narazie nvidia bardzo mocno trzyma się swoich optymalizacji pod gry, możliwe iż w niedługim czasie producenci gier zaczna sie buntować i nvidia wyda kolejną serię GeForce zapominając o starej. ( co widać po komentazach osób juz grających w crysis - gra chodzi bardzo wolno wolniej od dema - brak wsparcia SLI - wspomniany artykuł osoby z crytek i driverbug.exe to są znaki które warto zapamiętać)
  7. Raider

    Radeon Hd 2600 XT/Pro

    Do radiergummi jeśli rozumiesz choc troche angielski to powinienes zrozumiec tekst który podałem udowadnia że wtedy gdy widzimy logo nvidia w czasie odpalania gry to znaczy ze gra powinna była chodzić bznadziejnie na kartach nvidia ale została pogorszona jakość specjalnie dla kart graficznych nvidia - ATI nie musi nic robic bo ich karty są mocne wszędzie gdzie nie ma zadnego loga i w wiekzosci tam gdzie jest nvidia <_< I will tell a story to you that (I hope) illuminate your ideas: As anybody knows, in the begining, Crytek was a Softwarehouse that only develops techs demos from Nvidia. As the CryEngine 1 looks too promising, then Crytek turns itself to a Game Developer releasing the game Far Cry 1. Well, Far Cry 1 was gorgeous in his time (even now) but the game introduces much visual effects that makes the current Hardware suffers to give a decent frame rates and the game was developed in partnership with Nvidia Engineers (the similarity of Crysis and CryEngine 2 in NOT a mere coincidence). In that time, Nvidia's flagship graphic cards was based on the Geforce FX core (Cine FX 1 & 2 engine and UltraShadow 1 technology) and the architecture limitations is well know. Even so, the Geforce 5800 and 5900, in that momment, surprisingly, give a more frame rates than the competition. The Crytek's close relationship with Nvidia makes ATI suffers in the beginning, then she have to pay a lot of money to immerse in FarCry scenario because the Radeons 9k series (especially 9500, 9600, 9700 and 9800 series) has a much more visual quality in Directx 9 and "horse power" to render the CryEngine game, but the results are ofuscated by FarCry. When they seal the arrangement the results starts to appear on the Radeon 9k family. And the benchmarks consagrated the obvious: The Radeons are a much better cards (capitalism baby). Back to nowdays: If you look carefully on the Directx 10 specifications, you will see that the Radeons HD (aka 2000 and now 3000 series or R6XX) achitecture achieve much more compliance than Geforce 8 series. The ATI's Stream Processing Units are superscalar, processes complexity shaders, renders Anti-Aliasing on a shader Level and are much more powerfull than Geforce 8 (but have lower clocks). So, why Geforce 8 perform better than Radeon 2/3k? Because of 2 things: 1-) Hybrid architecture In essence is a Directx 9 hardware (turbined) with some Directx 10 introductions, but not totally compliancy with Directx 10 and more dependent to the especific optimizations - what explains why Nvidia acts much more in the development of the games than ATI. The Nvidia hardware not process all the image on the Shader Level (besides of Unified Shader Achiteture), it uses independent processing units, more dependant like Texture Mapping Units (TMUs) - Raster Operators Units (ROPs). Methods that are more efficient on Directx 9 level, but in the Directx 10 department the shines fades a lot (as various serious benchmarks reviews shows on Call of Juarez, Bioshock, Company of Heroes Opposing Fronts and now on Crysis). 2-) Especific Optimizations Well, basically Nvidia's pals pays a lot of money to softwarehouses optmizes your games to only yours GPU's. With a signed contract, of course. Just look to the "Way it's meant to be played" seal that Nvidia slaps in our faces even more in actual games. As Cryengine 2 is based on Direct9 programming and implemmented much Directx 10 above Directx 9 code (this is not a secret), the truly Directx 10 game was not show yet. Do you see the similarity on the exposed on Geforce 8 especifications with the actual Directx 10 titles? All the game was programmed with the Geforce 8 in focus and all Crytek's past Crysis showcases explicity explains that (in words actually), that's no news on that. Back to your Criticism Laykun: Tells me that processing shadows "It's not dependant on your video card" is, as you call, mis-information. If you don't know, all pixels that you see in your screen is processed by the Video Card. Ass the shadows is a pixel per se, the caracteristics of the cards influence in the performance demonstrated. The shadows on the Crysis do not uses per-pixel lighting to be generated, so its not dinamically created. Crytek chooses to uses some Static Shadows and Shadows Maps because that do not fatigate the Stencil Buffer (http://en.wikipedia.org/wiki/Stencil_buffer) and offers max performance but with not a true image quality. Ironically the Radeon 2K family has a Double-sided hierarchical Z/stencil buffer just to renders fast true next generation Shadow quality, but in the "most advanced game engine today" we do not have the most advanced shadow. Unreal Engine uses Stencil Shadows and are rendered much more faster (and have a higher quality) on ATI side than Nvidia. And the shadows on Unreal are much more gorgeous than on Crysis. This is a example of what the distinctive programming can cause in the consumer impression of a hardware. The Geforce is no better than R6XX, its worse, but are more optimized in the majority of games. Before I argue (that I will not) with the rest of you comment, I suggest that you read more about the CryEngine and the paths that Crytek chooses to follow before put some "rubish" statements based on what you read in superficial reviews and opinions. A good place to start is in this article (with explains a lot about Crysis poor performance - some bad decisions by the Crytek Team): Advanced real-time rendering in 3D graphics and games: Finding next gen: CryEngine 2 Martin Mittring (Crytek GmbH) August 2007 ACM SIGGRAPH 2007 courses SIGGRAPH '07 Podsumowując nvidia nie jest w pełni komaptybilna technicznie z DX10 co gorsza ich karty są słabsze od kart ze stajni ATI.. jedyne co ma Nvidia to swoją optymalizację sterowników w grach dzięki czemu jakoś to wygląda... jedna wielka farsa z tymi Geforcami - jak dla mnie era FXów jeszcze sie nie zakończyła
  8. Raider

    Radeon Hd 2600 XT/Pro

    Odezwał sie fanatyk Nvidii - lepiej odpal Crysis na windowsie X64 i zakup radka 2600XT ddr4 i porównaj surową wydajność obu stajni.
  9. Raider

    Radeon Hd 2600 XT/Pro

    W 3d marki sie nie gra i prawda karta technicznie rzecz biorąc pod pewnymi wzgledami jest tak szybka jak 6600GT ale potrafi przetworzyć każdy możliwy nowoczesny efekt shaderów bez mrugniecia okiem - przewali kazda ilość danych w tym przypadku 6600GT krztusiłby się przy jednym z nich i to w kazdej rozdzielczosci - technologia idzie do przodu a 3d marki nie sa juz wyznacznikiem wydajnosci sprzetu... Przy napięciu standard 1.22V nie wyrobi zaden rdzeń tych 800Mhz... czasem wersje PRO sa faktycznie wersjami XT i jak sie wydusi wyższe taktowanie karta przestraja napięcie rdzenia, dlatego jest taka różnica w cenie np. Palita PRO (269zł ddr3 ) a na przykład tym TYM Różnica w cenie kosmiczna - wydajnosc na palicie nawet wyższa - dlatego że ten HIS jest wersą XT z duzym zapasem OC i swietnym chłodzeniem. Gdyby dowalili do tego HIS`a vmoda to przypuszczam że i 1Ghz byłby możliwy a to w końcu jest 390 mln tranzystorów do rozpędzenia B-) Doszedłem do takiego wniosku - układy zasilania kart graficznych są także bardzo drogie są wysokiej jakości muszą zapewnić stabilność skąplikowanej architekturze rdzenia, w tym momencie nvidia wypada bardzo blado bo ich karty mają mniejsza ilość tranzystorów (mowa o 8600) dzieki czemu nie potrzebuja az tak dobrych ukladów zasilania a nadrabiaja wydajnosc przy pomocy szybkich pamięci. Stąd ta cała gonitwa za pci-express ktore samo dostarcza odpowiedni prąd o odpowiedniej mocy - widać producenci płyt maja wieksze wtyki w dziedzinie zasilania albo producenci grafik specjalnie zwalają na nich koszty dosilania grafiki :) PS ATI-AMD udowodniło nam że radki 2600 to są prawdziwe monstra i trzeba je spowolnić gdzie tylko jest to możliwe - wszystko do okoła rdzenia spowalnia potwora :D PS2 nvidia udwadnia nam że ich katy maja słabą przepustowość efektów, w crysis posuneli się tak daleko że zmodyfikowali efekt odbicia na powierzchni wody i odrazu booster wydajności nv rządzi :) pozatym jest jeszcze bajer że w nv można przetaktować jednostki shaderów - oj słabiutko słabiutko, czyżby ich przepustowość była zbyt mała ?
  10. Raider

    Radeon Hd 2600 XT/Pro

    Ja używam programu POWERSTRIP odświeżanie ustawić można co do ułamka HZ w każdej rozdzielczości nawet własnej wymyślonej ( i program sam wymusza odswiezanie w grach itp) pozatym program ten wrzuca do windowsa dodatkowe rozdziałki np rozdziałki panoramiczne :)
  11. Raider

    Radeon Hd 2600 XT/Pro

    Koniecznie trzeba schłodzić cewki bo maja potężną temperaturę!! wersja XT tego palita ma podwójne układy zasilania i dlatego wydala tak wysokie takty rdzeń z koleji jest odporny na wysoką temperaturę dlatego palit nie zmieniał chłodzenia w wersji XT. Podoklejałem wszędzie kawałki alu i wrzuciłem pod karte nawiew i teraz juz gites stabilna. Damikor ten radek po mocnym OC i vmodzie jest poprostu wspaniały w grach radzi sobie świetnie nie spowalnia jak są jakieś zadymy czy wybuchy fps stabilny, poza tym co nowsze sterowniki wyda ATI tym wszystko nabiera jeszcze wiecej FPS, karta jest przyszłościowa a firma nie traktuje poprzednich generacji jak śmiecie ( nvidia tak robi odkąd pamiętam) miałem 7300GT galaxy po vmodzie i karciocha nie dorównuje radkowi do pięt
  12. Raider

    Radeon Hd 2600 XT/Pro

    Dobrze jest jeszcze schłodzic układy zasilania ja tak zrobilem przed robota - poprzyklejałem tam jakies aluminiowe kawałki bo te elementy parzą w czasie wyswietania 3d (po drugiej stronie katy w tym samym miejscu gdzie sa uklady zasilania rdzenia tez jest jeden taki element jak te 2 w kole)
  13. Raider

    Radeon Hd 2600 XT/Pro

    Palitowskie chlodzenie nie naruszone - wlasnie ukoczylem Clive Barker's Jericho przy taktach 850/1600 w 1280x1024 i wyglada mi na bardzo stabilnie :-P Radiatorki to pozostałość po scietym z kazdej strony radiatorze z czipsetu plyty głównej, kazdy element jest dokladnie zeszlfowany na grubosc (ta ktora wchodzi pod platy chlodzenia palita) ok milimetra inaczej nie zmiescilyby sie miedzy kosciami a chlodzeniem palita. Przykleiłem na zwykły silikon uniwersalny jaki sprzedaja w duzych tubach do uszczelniania np łazienek... pozniej mozna ukręcić radiatorek od kosci pamieci i uzyć ich drugi raz ( czy tam wysłac karte na gwarancje)- te zielone miałem na GF7300GT B-) heh troche dziwne kolory wyszly bo katoda niebieska swieciła z bliska edit a jednak karta nie utrzymala taktowań jak na poczatku ze wzgledu na teperature wicej nie wycisne jak 840/1550 rdzenia nie sprawdzalem w sresie ale pewnie ma ze 100 stopni :P Może ktoś juz znalazł i ma na oku alternatywne porządne chłodzenie do tej karty co by pasowało ?
  14. Raider

    Radeon Hd 2600 XT/Pro

    Heheheh almost playable teraz pewnie chamuje mnie cala platforma core 2 duo i pare fps grtisowych wytarczyloby do 35 klatek
  15. Raider

    Radeon Hd 2600 XT/Pro

    Mod chlodzenia pamiatek gotowy zaraz zapuszczam bioshock rdzen odtaktuje na 800 zeby miec 100% pewnosci a pamiatkom dam 1500 na pierwszy zut EDIT> Coż moge powiedzieć :lol: karta nie rypnela sie w bioshock przy taktowaniu 800/1510 (dalej nie testoałem ), w crysis bledne textury zniknely jak rożdzką odjąć i powiem więcej crysis przy taktowaniu 850/1600 nie sypie artami B-) dopiero zaczely sie jak dalem na pamiatki 1620Mhz to juz jeden kamyczek mrygał Wniosek jest jeden - palit dowoltował pamiątki aż za bardzo i przy taktach standardowych sa za gorące - zrobcie to co ja zrobiłem polecam heh czas zmienic sygnaturke
  16. Raider

    Radeon Hd 2600 XT/Pro

    No ja znalazłem taką gre - CRYSIS przy nawet lekkim OC pamiątek sie krzaczy niektóre textury mrugają może to wina samej gry bo np. w Clive Barker's Jericho, Need for Speed Carbon, test Drive Unlimited, TimeShift, i 3d marku 2006 takie krzaczki nie występują, i pomimo dobrego działania tych gier to bioshock wywala się w losowych miejscach po paru minutach intensywnej strzelaniny <_< myslisz ze t wina pamiątek ? ten crysis i bioshock to wina grzejących się pamieci ? jesli odopowiedz pozytyna to juz ścieram aluminium na wiurki i robie radiatory ktore weda pod ten co jest na rdzeniu moze odrobina alu wystarczy :)
  17. Raider

    Radeon Hd 2600 XT/Pro

    Heh dzieki za cynk z tą chińszczyzną :rolleyes: nareszcie sie udało i to za pierwszym podejściem opór mam ok 630 ohm i napięcie zmierzone 1.34V (1.19V orginalnie) robiłeś też moda na pamięci ? przydałby sie bo moje nie ida do konca stabilnie na 1500Mhz stabilnie w roznych grach wyszło 1470Mhz do cienizna jakas w porownaniu do samsungów 1.4ns które szły na 1600mhz bez modów PS ( zwieszka dopiero przy 880Mhz a rdzeniu stabilnie mysle ze 850 :) )
  18. Raider

    Radeon Hd 2600 XT/Pro

    Hmmm podejmowałem probe zrobienia v-moda ołówkowego i jakos nie potrafie zamazać dobrze tego rezystora, ołówek 6B - maże delikatnie nie chce zmazac rezystora i po 10 -20 sekundachopor taki sam , może ma na sobie jakiś lakier co ?
  19. Raider

    Radeon Hd 2600 XT/Pro

    Na palita nie wolno montowaqc chlodzenia bo ma plombe na radiatorze od spodu, jak widzisz moj egzeplarz kreci sie stabilnie do 750/1500 choc probowalem wyzej rdzen to na 800 nie pujdzie \, mysle ze moznaby jeszcze troszke dodac ale narazie mi niepotrzebne - wersja xt napewno bedzioe sie slabiej krecic chłodzenie jest słyszalne tylko w 3d jak sie sciszy dzwiek gry
  20. Raider

    Radeon Hd 2600 XT/Pro

    Ati Tray Tools nie dziala zawiesza karte ustawia zle takty, puki co dziala OC w rivie na szczescie powerstrip nie zmienia taktow wiec moge wydusic odswiezanie ekranu porzadne :) ale fajnie karta chodzi dopiero ustawilem 750 rdzen i 1500 pamiatki i w stosunku do 7300GT wszystko chodzi lepiej np: TDU 1280x1024 bez hdr, Bioshock 1280x1024 detale max, MOHA smiga, Half Life 2 ep2 smiga.... zaraz przetestuje Carbon`a. Zeby tylko dorobili drobne bledy w sterach odnosnie wywalania gier (narazie zauwazylem tylko w Bioshock), zeby zrobili wskaznik temepratury w sterach CCC i podkrecanie prawdziwe i gotowy przepis na sukces :) Do sporych zalet moge uznac jakosc filmów jest sporo lepsza teraz i ten bajer AVIVO a dalej nasycenie kolorów pulpitu jak w Nvidii. W ogole zdaje sie ze karty ati dzialaja bardz stabilnie jesli chodzi o FPS`y nvidia duzo zyskuje w kazdym tescie bo ich karty dramatycznier zwiekszaja ilosc klatek wtedy gdy nie maja co liczyc i punktuja sobie "scieme" ... takie moje sa moje odczucia w tym momencie :D edit Carbonn playable 1600x1200 bez aa bez rozmazywania ekranu reszta max :)
  21. Raider

    Radeon Hd 2600 XT/Pro

    sorki za poprzedniego posta to moj był ale autologowanie pozostalo po znajomym, wiec tak wrzucilem na szybko stery 7.9 hotfix podkrecilem rivatunerem i prostym testem sprawdzilem zero przyspieszenia w stosunku do standardowych taktow, zrobilem reset sprawdzam a tu skok wydajnosci tak jak gdyby sie udalo OC wszedlem w ATITool zeby sprawdzic artefakty i nic nie wykrywa wracam do poprzedniego testu na ktorym byl wzrost wydajnosci i patrze a tu spowrotem to samo wniosek atitool przywraca defaultowe takty ! pozniej zadzialalo dopiero jak zresetowalem system! w ccc podkrecanie nie dziala zostalo wylaczone i to chyba przez te cale catalysty takty sie nie zmieniaja. Nie wiem co bedzie jeszcze z powerstrip bo on tez jakies tam taktowania wykrywa i tez moze przyrocic takty jak w końcu zareaguje w systemie pewnie wszystko wroci do default zaraz sprawdze :rolleyes:
  22. Raider

    Geforce 7300 Gs / Gt

    Heheh dalem pencil moda na rdzen poszedl na 780 ale w ati tools po paru minutach artefakty.
  23. Raider

    Geforce 7300 Gs / Gt

    Hejka dawno mnie nie bylo bo czekam na netie net24 Moja grafika umarła. Powodem owej smierci był zbyt twardy grafit olowka albo moja uporczywa gonitwa o kazdy mhz. Prawdopodobniue przetarłem rezystor i juz wiecej nie przewodzi napiecia na pamieciach. Oddałem na gwearancje i czekeam na serwis mozer w tym tygodniu w koncu neta zaloza.
  24. Wszystko poza: panelem przednim czy zewnetrznym z pilotem, pozłacanymi koncówkami, pełnym profilem, i edytorem dzwieku ( w sumie u mnie działa z asio takze nie wiem dlaczego na opakowaniu ta opcja jest zaciemniona), poza dodatkowa pamiecia x-ram. Reszta czyli wsparcie w grach jest, eaxy są, brzmienie na 99.9% te same. Gamer zawiera wszystko czego potrzebuje przecietny uzytkownik reszta to zbedne bajery za ktore płaci sie krocie :lol: (to jest prawdziwy x-fi ma nawet czerwona diodke podswietlajaca wyjscie cyfrowe ) PS Jesli chodzi o przyspieszenie w grach jest najwidoczniejsze w Far Cry, w software po kliknieciu myszka czeka sie okolo 0.5 sekundy na dzwiek strzału z akceleracją klikam i słysze dzwiek odrazu :) I zeby nikt sie nie czepial pomimo braku wsparcia DTS (moze braki dotycza wyjscia cyfrowego) odtwarza bez problemu w pelni jakosci http://img258.imageshack.us/img258/696/10474617qp7.jpg
  25. Minimum 2502103[/snapback] 1. Czy warto wymienia Audigy 1 na X-FI Gamer? Mam 2 +1 głosniki Logitecha X-230. Czy wogole warto dla glosnikow 2+1 kupowa ta karte? Warto, mialem przedtem Live 24 BIT nie maco komentowac x-fi rulez :lol2:
×
×
  • Dodaj nową pozycję...