-
Postów
754 -
Dołączył
-
Ostatnia wizyta
Treść opublikowana przez BezbronnyPL
-
IMO jest sens -dopłacasz do większego napięcia, zwykły non-sonic ma na vcore 1.25V podobnie jak GF8400. Takze dopłać i masz spokój+ kondziory SSC.
-
Oczywiście Intel jest wydajniejszy -bezdyskusyjnie. Tu masz pełne testy ,które tak wybiórczo ktoś wkleił->HTPC A tutaj nieco o znaczeniu CPU w grach->Legion Hardware. Także Intel jest ok,do gier X2 także wystarczy(wbrew absurdalnym tezom o rzekomej potrzebie C2D o zegarach 3 i więcej Ghz).
-
Sound Blaster Audigy 2 Oem
BezbronnyPL odpowiedział(a) na Maks! temat w Słuchawki, Głośniki, Odtwarzacze, Hi-Fi, Karty Dźwiękowe
Przyjąłem do wiadomości.Zobaczę co z tego wyjdzie. -
Sound Blaster Audigy 2 Oem
BezbronnyPL odpowiedział(a) na Maks! temat w Słuchawki, Głośniki, Odtwarzacze, Hi-Fi, Karty Dźwiękowe
No niby tak ,ale co z oryginalnymi sterami ? Bo wolałbym stery oryginalne , a dopiero po obczajeniu co i jak (jakość dźwięku ,EAX) mógłbym się pobawić czymś mniej oficjalnym.No chyba ,że są rzeczywiście bezproblemowe i wszystko na nich działa(a nie jak na KX-albo jakość albo EAX). Bo kupić sprzęt, na którym nie można zainstalować oficjalnych sterów, jakoś kłóci się ze zdrowym rozsądkiem.Najgorsze ,że nie wiem czy sb240 czy sb350 :? No trochę poczytałem i te..paxy nie są złe.Ciekawe tylko czy jak bym nagle zapragnął Visty to będę mógł cieszyć się kartą(zapobiegliwie zassałem Alchemy do Audigy2) na tych sterach czy to ustrojstwo (alchemy) działa tylko na oficjalnych? B-) B-) -
Sound Blaster Audigy 2 Oem
BezbronnyPL odpowiedział(a) na Maks! temat w Słuchawki, Głośniki, Odtwarzacze, Hi-Fi, Karty Dźwiękowe
Witam. "Osochodzi" z tymi zhakowanymi sterami? Czy można zainstalować po prostu stery do Audigy 2+ jakichś standardowy mixer/panel(tak miałem w Audigy1) czy żeby uzyskać pełną funkcjonalność wer. ZS trzeba instalować zmodyfikowane? Pytam się , ponieważ zastanawiam się czy brać sb240 czy sb350.Rożnica w cenie 10zł jest do przełknięcia, ale jakbym miał walczyć z zainstalowaniem sterów, to raczej wolałbym tego uniknąć(nie mam czasu na długotrwałe babranie się ze sprzętem) . Dodam ,że wystarczy mi ->sterownik +mixer .Nie zależy mi na żadnej dodatkowym oprogramowaniu,liczę na dobry dźwięk i EAX bo Realtec ALC850 przestał mi wystarczać(trochę za szybko pozbyłem się Audigy 1) . Osobiście wolałbym SB350(lepsze komponenty na PCB?). -
Widocznie nie i dlatego połowa postów to bzdury.
-
DX10,to nie jest żaden marketing, miałem na myśli to , że specjaliści od marketingu, wykorzystają każdą cyferkę wyższą od poprzedniej, jeśli dzięki temu będzie można podwyższyć sprzedaż. A karty pokroju 8800 to świetne karty, i tylko naiwni kupili ją dla znaczka DX10, większość nabyła ją dla wydajności w DX9, kompatybilność z nowszym API traktując jako pewien gratis . Dość powolna adaptacja DX10 ,wynika z kilku czynników : konieczność poznania nowego DX, nowa architektura GPU i zupełnie inne sterowniki ,a i sama Vista jest jeszcze niezbyt dojrzałym OS-em .W tak krótkim czasie po premierze Visty nie można oczekiwać ,ze pierwsza generacja kart, będzie sobie świetnie radzić w Direct 3D10. Osobiście od początku traktowałem serie 8xxx jako przejściową(dając temu wyraz zaraz po premierze tych kart) , dopiero nowa generacja GPU może pokazać pazur.Oczywiście trzeba się uzbroić w cierpliwość bo gier czysto DX10, jeszcze długo nie zobaczymy. A DX10.1 to będzie pewnie taka historia jak z DX8 i 8.1 ,nowe karty będą zgodne z 10.1 ale tak naprawdę wykorzystywana w dużej mierze będzie starsza specyfikacja.
-
Jeśli układ G92 ma być czymś pomiędzy 8600GTS a 8800GTS , to na pewno nie zobaczymy w/w atrakcji. Ta specyfikacja bardziej odnosiłaby się do nowego, high-endowego GPU. z paroma uwagami. 512Bit szyna danych-jeśli nowy GPU z nawyższej półki będzie ~50-100% szybszy od G80, to można przyjąć, że jest to możliwe i całkiem prawdopodobne.Bo już po układzie R600 widać ,że 512bit to na ten sprzęt- kwiatek do kożucha. Co do układu EDRAM -IMHO mało prawdopodobne.Po pierwsze ilość tej pamięci w układzie Xenos(X360) jest ściśle powiązana z przyjętą rozdzielczością (720p) z jaką wyświetlana /renderowana jest grafika.Rynek PC to nieco inna bajka, użytkownicy używają różnych rozdzielczości i trudno będzie ustalić, ile tej pamięci ma być.Jeśli zdecydowano by się na pójście na maxa, i wielkość EDRAM-u przyjęto by dla bufora ramki rzędu 2048 x 1536 , to ilość tej pamięci, musiałaby być całkiem spora zważywszy na fakt ,że w Xenosie rozdzielczość 720p, i tak jest zbyt duża w stosunku do wielkości EDRAMU , przez co stosuje się inny typ renderowania -tzw.rendering kafelkowy. Jakoś nie wydaje mi się ,by EDRAM był konieczny przy 512bitowej szynie danych i dlatego wątpię by to rozwiązanie zagościło w G9X. -co do układu tesselacji-możliwe ,skoro jest w R580/R600 .W przypadku R600 ,inżynierowie z ATI/AMD wybiegli tak daleko w przyszłość ,że nie dość ,że teraz R600 radzą sobie średnio , to gdy ich fajerwerki zaczną być używane przez developerów, na rynku będzie już kolejna generacja kart NV. Być może tesselator znajdzie się w nowych układach i zacznie być używany-kiedyś tam. -wbudowany układ audio, możliwe -na rynku HTPC takie coś zdobędzie uznanie. A DX10.1 ? Marketingowcy tego nie przepuszczą , choć nowa specyfikacja wymusza np. FSAAx4 w standardzie. Problem z DX10 jest inny, o ile sprzętu zgodnego z tym API jest całkiem sporo , to ilość osób z zainstalowaną Vistą jest kilkukrotnie mniejsza niż tych, z Win XP i GF8xxx, R2xxx . Mówiąc inaczej ,duża część devów ma raczej gdzieś DX10- przynajmniej przez najbliższy czas.
-
Co się tak napaliłeś na 850XT? To stara karta ,brak PS3 może być problematyczne ,gdyż kilka gier ich wymaga.Dodatkowy problem jest z Athlonem XP, ponieważ brak instrukcji SSE2 powoduje ,że kilku kolejnych gier także nie odpalisz. Także brak Shader Model 3 i SSE2 ograniczy Ci zasób gier. A na szynę 128bit nie masz co patrzeć, od dawna dużo ludzi lamentuje "że to tylko 128bit",podczas gdy tak naprawdę, ważna jest odpowiednia dla mocy obliczeniowej GPU, przepustowość szyny ,a to czy osiągnięto ją stosując 2x64bit(128) czy 4x64bit(256) /+/ naprawdę nie ma znaczenia. Jeżeli nie chcesz sprzedawać sprzętu ,to 7300gt/7600GS DDR3 będzie chyba najlepszym zakupem. A jak tak lubisz ATI ,możesz pomyśleć o R2600Pro od palita.Aczkolwiek przemilczę wydajność tych kart. No właśnie -pomyśl nad tym.Chyba ,że grasz okazjonalnie i raczej w stare tytuły.
-
Na kartach proponowanych przez niejakiego Kvaz! w ogóle nie będzie mógł pograć-kasa wyrzucona w błoto(szczególnie GF4Ti z epoki DX8). IMHO minimum to :6600GT->7300GT->7600GS DDR3 ewentualnie 7600GT. Ograniczanie kart przez CPU?Zauważyłem ,że wielu forumowiczów przykłada do tego zbyt wielką wagę.Na tym AMD 2.4 jeszcze pograsz(skoro chcesz), a to, że jest zbyt słaby do tych kart? Jak to zauważysz ,to włączysz sobie FSAA + AF żeby karta sie nie nudziła.
-
Mój brisbane chodzi na 2.8Ghz ( 9,5 x 296 )na def Vcore - w BIOS 1,3V , wg.Everest 1,33V. Oznaczenia proca CAALG 0709WPAW Oczywiście mogę wrzucić screena z całonocnego orthosa. Także nie jest tak źle, ale i seria dosyć stara.
-
Wiesz te 10Mhz to max-ale i tak nie mam czasu tego przetestować,przyjmuje więc , że wymiana chłodzenia nic nie dała ,bo te 10Mhz więcej i tak jest zupełnie nieodczuwalne- wole mieć te parę Mhz mniej ale rock stable niż niepeność.Dopiero przy większym woltażu pewnie odczuło by się lepsze chłodzenie. Ja od zawsze testuje karty w zapętlonych 3dmarkach(ewentualnie rthdribl) na maksymalnych możliwych ustawieniach.Jak karta przejdzie ze 30razy 3dmark05/06(tylko testy 3D) bez problemów z FSAA+FA +Hi-Res ,to nikła szansa ,że w rzeczywistej grze, na niższych ustawieniach się wysypie. Co do biosu -zawsze można wyedytować swój bazując na tym z Fatal1ty. A temperatury to IMHO masz dobre -u mnie 55-61 w czasie gry ,idle 40*
-
Dziś dotartł do mnie Revoltec VGA Freezer. Krótki opis: 1.Montaż samego coolerka jest banalny tzn. przykręcamy 8 śrubek i to wszystko, gorzej ze zdjęciem oryginalnego chłodzenia.W wersji non-sonic, z tył karty, jest plastikowa podkładka z gąbką dociskająca fabryczny radiator , o ile odpięcie tego nie jest trudne- wystarczy lekko podważyć druciki- i po kolei wszystkie się odczepią, to gorzej ze zdjęciem radiatora , jest tak mocno zassany z GPU ,że znów musiałem posłużyć się nożykiem do tapet , delikatnie odcinając milimetr po milimetrze udało się go zdjąć.Ale zalecam cierpliwość bo trzyma naprawdę mocno -nagłe pociągnięcie i możemy mieć problem .Można spróbować podgrzać radiator suszarką (mnie już się nie chciało). Oryginalna pasta jest koloru szarego(jak AC 5). A jak to chłodzi? Po vmodzie napięcie na GPU mam 1.40V w 2d i 1.44 w 3d, w zapętlonym 3dmarku 06 w rozdziałce 1440x900 FSAAx8 i AFx16 na ustawieniach 725/1700 temperatura wynosiła po ok.20 min. 71st. Na Revoltecu w tych samych warunkach 61st.Ale zaznaczyć muszę ,że mam skręcone obroty wiatraka na minimum za pomocą Zalman FanMate. W tych warunkach wiatrak jest niesłyszalny, a nawet na max obrotów jest sporo/wyraźnie cichszy od stockowego coolera. Niestety muszę powiedzieć ,że obniżenie temperatury na GPU w znikomy sposób przełożyło się na OC-zaledwie 5-max 10Mhz i to wszystko :sad: (choć kupiłem Revolteca głównie z myślą o wyciszeniu). A i jeszcze jedno-do zamalowania rezystora posłużył mi ołówek stolarski(made in usa ) kupiony w Castoramie.Ołówek to weteran-mazał już wcześniej 2 karty :) i sprawdza sie wyśmienicie.
-
Przesiadłem się na 8600GT bo stwierdziłem ,że skoro 8800GTS nie zapewnia jakieś super komfortowej rozrywki(trzeba już trochę kombinować) w takim Rainbow Six vegas czy Lost Planet ,to nie warto inwestować zbyt wiele w grafikę.I na 8600GT kompromis wydajność/jakość i na 8800GTS, więc wole mniej wydać ,poczekać na coś szybszego.A taki 8600GT po OC już coś potrafi,widać ,że tej karcie każde 25 Mhz coś daje(można to odczuć w RSV-zegar 645 a 680 -niby niewiele ale sie czuje).I to wszystko za ~400zł.I pomyśleć ,że jakichś czas temu miałem kupić 7600Gt(wydałbym tyle samo za mniejsza wydajność). Poki co czekam na chłodzenie i zobaczę co sie da wycisnąc.O dodatkowych kondziorach też myśłałem ale nie wiem czy będzie mi się chciłao w to bawić. :)
-
Tak ,i to mnie dobiło.Co ciekawe jak zamalowałem rezystor co dało 1,40V Vgpu zwiększa się w 3d do 1,44 i gpu leci na ~735-745.Także nie wiem co jest grane,.Sprawdzałem kilka razy, i na defaulcie 1.25V i ani drgnie.Być może będę musiał skombinować inny miernik. Powiem tak,też się nad tym zastanawiałem i: - można nakleić radiatory na część zasilania(co też zrobiłem) -piszczące cewki/dławiki zalać super glue, nie jest to przypadłość rzadko spotykana w sprzęcie komputerowym.Trochę kleju załatwi sprawę-choć akurat mój egzemplarz nie piszczy. Co do zasilania -dodatkowa faza/y w GTS czy też w zasilaniu procesorów mają za zadanie zwiększyć stabilność napięcia ,ale przede wszystkim skraca się czas przełączania tranzystorów,dzięki czemu mniej się grzeją ,co często przekłada się na lepsze OC. Ale w praktyce nie zawsze ma to tak duże znaczenie-najlepsze mobasy do OC wcale nie posiadają jakichś 8 czy 12 fazowych cudów ala Asus czy Gigabyte , jednakże osiągają dobre wyniki w OC. Osobiście wydaje mi się ,że bardziej istotna jest tu jakość / pojemność użytych kondensatorów a dopiero potem zasilanie GPU.Ale umiar jest wskazany.Tak czy inaczej zasilanie "oradiatorować".
-
Dostałem w końcu mojego Palita 8600gt (zwykły ,żaden tam Sonic). Pierwsze odpalenie-myślę ,że trochę go wygrzeję, a potem pobawię sie w OC,ale wytrzymałem tylko parę sekund :) No i idzie na 710 rdzeń a pamiątki jakieś 850(+ ~25-35Mhz) ale taka ciekawostka -tylko na sterach 158.24 ! 3dmark 06 zapętlony kilkanaście razy i zero problemów typu arty ,freezy. Ale do czasu jak zainstalowałem 162.18, odpalam 3marki 05/06 i na tych samych zegarach - czarny ekran,włączam Rainbow Six-freez po kilkunastu sekundach.WTF? Zmniejszam zegary i dopiero przy 645/850 wszystko gra.W programie NV ntune sprawdzam zegary wbudowanym testem, i fucktycznie -akceptuje tylko te sprawdzone wcześniej w 3d markach. Tak się wpieniłem ,że zaraz odgrzebałem mierniczek i co widze? 1,25V na VGPU słownie :jeden , dwadzieścia pięć volta!!Spodziewałem się trochę więcej, no ale nic, i tak planowany był volt mod oraz wymiana chłodzenia-dlatego nie brałem wersji Sonic.Niemniej teraz wolałbym trochę droższą wersję, ponieważ ma lepsze kondziory w sekcji zasilania GPU. Standardowy GT ma 1500uF Rubycona(czyli nie jest żle) ale wolałbym jednak lepsze. No i przyjrzałem się PCB, Pality rzeczywiście nie mają płytki od GTS-a(odjęta jest jedna faza zasilania w stosunku do GTS). Jakbyście mogli mi podać jeszcze pojemność kondziorów w wersji Sonic, to byłoby miło. Póki co idę po ołówek. Aha- sticker zdjąłem nożykiem do tapet /wykładzin,ostrożnie podważyłem i "podcinając" odlepiłem. gdyby ktoś nie miał koncepcji jak sobie można z tym poradzić. Pozdro.
-
Wolfenstein 3D w nowej odsłonie.
-
No tak. -miałem na myśli 6600 (520/650)+X2 ehh zrobię sobie sobie sig to będzie łatwiej stery 9x.xxjakieś najnowsze WHQL, ustawione na wydajność.
-
U mnie chodzi "jakoś" na 800x600 z wyłączonym Hardware Skinning, HDR-OFF,cienie na very low.Zmodyfikowany lekko plik .ini(config) tzn.obniżone AF,i tekstury. W/g Riva Tuner, frame rate bardzo rzadko spada poniżej 25FPS-choć czasem chrupnie do 15.Na razie młócę tylko w terrorist hunt,i nie chcę odpalać normalnego trybu, żeby nie odbierać sobie przyjemności. Czekam na 8600Gt ,ale póki co nie mogę się powstrzymać, i czasem sobie to włączę(dawno nie grałem w jakąś solidną militarną gierkę). Ogolnie RS V jest fantastyczny , brakuje mi tylko paru giwerek( np. M4 RIS) ale ogólnie jest OK.
-
Na stronie->chip jest przetłumaczony wywiad z Tim em Sweeneyem o Unreal Engine 3 Serwis EVGA przeprowadził wywiad z Timem Sweeney’em z Epic Games na temat Unreal Engine 3. Poniżej prezentujemy jego treść: Niedawno mówiłeś o o tym, że Unreal Tournament 3 (UT3) wykorzystuje możliwości DirectX 10. Jaki to będzie miało wpływ na efekty graficzne? Czy może to tylko ma na celu przyśpieszenie grafiki? Jak jest wykorzystywany geometry shader z DirectX 10 w UT3? Głównie używamy DirectX 10 by zwiększyć wydajność renderowania na Windows Vista. Najważniejszą korzyścią jest to, że pod Vistą, DirectX 10 pozwala nam na efektywniejsze wykorzystanie pamięci graficznej, co owocuje teksturami w wyższej rozdzielczości. Najbardziej widoczną zmianą pod DirectX 10 to obsługa MSAA. Po ustawieniu maksymalnej rozdzielczości natywnej monitora, antialiasing staje się kluczem do uzyskania obrazu w wyższej jakości. Czy Unreal Tournament 3 wykorzystuje 512 MB pamięci graficznej? Podejmujemy wiele kroków aby wykorzystać karty z 512 megabajtami i komputery z dużą ilością pamięci. Na PC-tach obecnych jest wiele tekstur o rozdzielczości 2048x2048, to wyższa rozdzielczość z którą konsolę sobie nie radzą. Jednakże, komputery z 32-bitowymi Windowsami XP czy Vistami nie wykorzystają więcej, niż 512 MB pamięci ze względu na metodę, z jaką 32-bitowy system operacyjny adresuje pamięć graficzną. Więc nie skupiamy się na wykorzystywaniu większej ilości pamięci. Ta sytuacja się zmieni za kilka lat, kiedy upowszechni się 64-bitowa wersja Visty, ponieważ 64-bitowy system operacyjny eliminuje wąskie gardło adresowania i pozwala na wykorzystanie większej ilości pamięci wideo. Patrząc jednak na analizy, takie jak ankiety Valve’a, jest jasne, że jeszcze nie nadszedł czas 64-bitowej Visty. Dajcie rynkowi parę lat i to się zmieni. Które z możliwości graficznych następnej generacji będą miały według Ciebie największy wpływ na granie? Wydaje mi się, że ewolucja mogłaby trochę teraz zwolnić. Dzisiejsze engine’y i zestawy mechanizmów renderowania pozwalają na zbudowanie dowolnego rodzaju gry, tak jak współczesne kamery wystarczają do nakręcenia dowolnego filmu. To nie oznacza, że nie ma nic do zrobienia! Jakość grafiki będzie się zwiększać w imponującym i zastraszającym tempie i uważam, że wciąż mamy 10 000 razy za mało mocy obliczeniowej, by tworzyć sceny realistyczne w stu procentach. Ale wydaje mi się, że praktycznie skończyły się dni, w których funkcja renderująca X pozwala na innowację Y. Dlatego też użycie middleware’owych engine’ów tak wzrosło, ponieważ jedna baza kodowa faktycznie pozwala na zbudowanie jakichś 80% gier. Jeśli chodzi o rendering, nie mogę się doczekać zejścia się modeli programistycznych CPU i GPU co ma związek z następną generacją procesorów mogących podołać obu zadaniom. Takie zejście się pozwoli na wiele innowacji software’owych, które blokowały obsesje Microsoftu/NVidii/ATI na punkcie wprowadzania nowych funkcji renderingu. Tak przewiduję następną dekadę! Wierzę, że wiele funkcji, o których się mówiło w późnych latach dziewięćdziesiątych w końcu się pojawią, jak programowe rendery drugiego poziomu, podpikselowe renderowanie trójkątów, analityczny antialiasing, nowe metody renderowania wokseli, zróżnicowane renderowanie wolumetryczne, metody energetyczne czasu rzeczywistego, i tak dalej. Jak Unreal Tournament 3 będzie wykorzystywał wiele rdzeni procesora? Czy będzie korzystał z czterordzeniowych procesorów? Jeśli tak, jakie zadania i w jaki sposób będą przypisane poszczególnym rdzeniom? Unreal Engine 3 ma tradycyjną, wielowątkową architekturę. Inicjuje dwa główne wątki i zbiór wątków pomocniczych. Główny wątek odpowiada za obsługę UnrealScript AI i logikę gry i obsługę sieci. Drugi odpowiada za rendering. Pula wątków pomocniczych przyśpiesza dodatkowe zadania modułowe, jak fizyka, kompresja danych czy strumieniowanie danych. Zatem UE3 działa znacznie szybciej na procesorach obsługujących dwa bądź więcej wątków wysokiej wydajności. Włączyć w to trzeba dwurdzeniowe procesory PC AMD i Intela, Xboksa 360 (z trzema rdzeniami procesora i dwoma wątkami na rdzeń) i PlayStation 3 (z jednym, dwuwątkowym rdzeniem). Przy większej ilości rdzeni bądź wątków, wydajność UE3 rośnie, jak pracują wątki fizyki i dekompresji. Jednakże nie wszystko zależy od wydajności, więc więcej jak cztery rdzenie w niczym nie pomoże. Do czasu, jak będą dostępne procesory z dużą ilością rdzeni, szesnastoma bądź więcej, będzie kolejne pokolenie engine’ów, z ważnymi zmianami w architekturze. Czy Unreal Tournament 3 wykorzystuje efekt świetlne Subsurface Scattering? Cały jest oparty na przybliżeniach! Unreal Engine 3 przybliża wartości subsurface scatteringu wykorzystując stworzone maski, określając emisję światła pod powierzchnią obiektu i modyfikator koloru. Pozwala to nam na osiągnięcie najwidoczniejszych efektów scatteringu, takich jak szczegóły fizjonomii postaci przy zastosowaniu złożonych warunków świetlnych i cieni. Co myślisz o mapowaniu przemieszczeń? Wiele się o tej funkcji mówi, ale tak naprawdę to forma kompresji geometrii, i by ją właściwie ocenić, należy ją porównać do innych metod kompresji geometrii. Biorąc to pod uwagę, to bardzo kiepska metoda! Wymaga parametryzacji powierzchni, co już jest trudne, ukrycia złączeń, i ma często inklinację niezwiązaną z formą, na którą jest nakładana. To prawda, będzie kiedyś rewolucja w teselacji obiektów trójkątnych, ale mapowanie przemieszczeń to nie będzie to. Producenci GPU wiele mówią o mapowaniu przemieszczeń, ponieważ wiedzą, jak ją łatwo zaimplementować do obecnego sprzętu. Nie analizują jak zwiększyć szczegółowość renderingu przy minimalnym zużyciu sprzętu. W zeszłym roku wspomniałeś, że możliwe, że będą efekty krwi/wody z uwzględnieniem praw fizyki. Dalej planujecie to zaimplementować? Czy Unreal Tournament 3 będzie miał jakieś specjalne efekty, jeśli chodzi o wodę/ciecze? Poczekajcie na prasowe dema UT3. Czy Unreal Tournament wykorzystuje EAX? Czy używa OpenAL, tak jak UT2004? W wersji PC, Unreal Engine wykorzystuje OpenAL do dźwięku i korzysta z większości funkcji nowoczesnych kart dźwiękowych 3D, sprzętowo i programowo. Czy Unreal Tournament 3 obsługuje HDR przy Anti-aliasingu? Tak, pod Windows Vista. Na wszystkich platformach PC gra działa z buforem ramki 16-bitów/obiekt (w sumie 64 bity). Obsługa anti-aliasingu MSAA jest obecna tylko przy DirectX 10, ponieważ te techniki wykorzystują niektóre możliwości nieobecne w DirectX 9. Czy są jakieś plany na wspólne granie pomiędzy platformami w Unreal Tournament 3? Obsługa gry między platformami to decyzja dotycząca samej gry a także biznesowa, która jest cały czas brana pod uwagę. Jednakże engine obsługuje to w pełni. Maciej Gajewski źródło: WWW EVGA Od siebie dodam ,że widać wyraźnie iż kolejna generacja gier na PC robi użytek z większej ilości rdzeni CPU.To nagłe przyspieszenie -prawdopodobnie -jest wymuszone specyfikacjami konsol Xbox360 i PS3 ,które opierając się na wielowątkowości zmuszają developerów, do zupełnie innego podejścia w tworzeniu gier, niż jeszcze 1,5, czy 2 lata temu. Dodatkowo, procesory dwurdzeniowe z high-endu, zeszły do mainstreamu , i już po kilku portach z X360 okazuje się ,że coś co niedawno było jeszcze pieśnią przyszłości, jest już teraźniejszością(Lost Planet,Dirt).Oddanie jednego wątku do renderingu,a kolejnych do całej reszty (dzwięk,AI,interakcje itd) jest jak widać niezbyt skomplikowane, i można sądzić ,że taki będzie standard najbliższych miesięcy i lat.
-
Oki nie jest tragicznie ,może wraz z kolejnymi sterami może być ciut lepiej.O transparency AA nawet nie myślę :) (co najwyżej 2x MSAA), HDR ?Hhmm zobaczę jaka jest różnica w obrazie z ON/OFF. Thx może pogram :) tak czy inaczej kupie RSV-a niech tam.
-
Pytanko. Czy ktoś z was młócił w Rainbow Six Vegas na 8600GT? Bo karcioszkę zamówiłem,ale jakoś testów w tej grze nie jest zbyt wiele. Jedynie ChrisG ,wrzucił coś ciekawego, ale chciałbym mniej więcej wiedzieć, jak wygląda to z punktu widzenia gry, na jakichś tam ustawieniach.Mam zamiar sobie sprawić RSV ale patrząc na wydajność innych kart(z wyższego segmentu) nie jest zbyt różowo... Proc to X2 i 2GB RAM ,dlatego bardziejh zastanawia mnie realny komfort gry na 8600GT. Pozdro.
-
IMHO freezera możes sobie spokojnie darować, też miałem podobny dylemat co kupić , bo boxowy wiatraczek doprowadzał mnie do szału. Wybór padł na Pentagram HP-100 AlCu Lite->Linky(obecnie najtanszy w komputroniku). Dlaczego akurat Pent? Ponieważ po lekturze wątku o AC 64 stwierdziłem ,że to dość wątpliwej jakości cooler, z drobnymi ale upierdliwymi wadami (nieprzykrywanie całego IHS, utrudniona wymiana wiatraka,czasem niewystarczający docisk do CPU). W kilku testach które są w sieci, Pent zawsze wychodził nieco lepiej, zwracano uwagę na dość głośny wiatrak(obecnie jest jakichś inny) na wysokich obrotach-ale to akurat nie dziwne, i dziwną podstawkę gdzie rurki heatpipe stykają się bezpośrednio z IHS,a jednocześnie spód Penta jest niedostatecznie wyszlifowany. Więc jak to jest w rzeczywistości? Co do spodu -fakt ,nie robi najlepszego wrażenia,ale miałem wcześniej Thermaltake Cool Pipe 101 (0,5 kg miedzi +4 rurki heatpipe) ,gdzie spod także nie był dobrze wyszlifowany.Ktoregoś dnia postanowiłem go wyszlifować papierem wodnym.Efekt-zaledwie 1 - 2 stopnie mniej,jak na kilka godzin polerki efekt śmieszny. Tak więc spód mamy z głowy.Wiec jaka jest wydajność? Powiem tylko tyle-jestem wręcz zdumiony jak to chłodzi, na box-ie Brisbane 2400Mhz( Vcore Def) dochodził do 65 * w stresie(Orthos-stress CPU) -wg.czujnika w podstawce, odczyty z diody pokazywały temp .ok 45* dla każdego z rdzeni Prędkość BOX- owego wiatraka 3000 RPM Pentagram- stres (orthos) w identycznych warunkach 36* odczyt z podstawki(i ta temp. w ogóle się nie zmienia!), a max 38* odczyt z diody,prędkość wiatraka 1750RPM(jest już cicho ).W idle 23-25*,dioda ,35* podstawka. W obydwu przypadkach użyta pasta to AS 5. Dodam tylko ,że mam pasywnie chłodzoną kartę ,która nagrzewa się do 80* w stresie a 60* ma idle. Obudowa z jednym wiatrakiem 80x80 z tył ,no i 12cm wiatrak w zasiłce. Także jak na takie maleństwo,spisuje się wręcz znakomicie.Osobiście nie jestem zwolennikiem tej firmy.,ale tutaj muszę przyznać ,że za ta cenę jest to świetny cooler, łatwo zmienić wiatrak gdy zajdzie taka potrzeba, można też zmodyfikować chłodzenie dokładając drugi wentyl z tył,w ten sposób powstanie coś w rodzaju turbiny i bez zwiększania hałasu przepływ powietrze wzrośnie znacząco(polecam sprawdzić układając 2 wiatraki jedne na drugim). Co ciekawe odczyty temperatur wreszcie mają ręce i nogi, gdyż odczyt z diody termicznej powinien w zasadzie pokazywać wyższe temperatury niż w podstawce. I teraz ma to miejsce.
-
No w sumie teraz też robi wrażenie:) Z tej pierwszej prezentacji(jakoś zaraz po premierze FarCry) zapamiętałem ,jak gość z EPIC mówił ,że jedna postać z na nowym enginie zawiera więcej tekstur niż cały poziom w pierwszym Unrealu, wtedy też pokazano w działaniu parę nowych technik(wtedy) jak :Parallax Mapping, Self Shadowing,oświetlenie HDR i parę innych rzeczy. A wtedy nie było jeszcze ani X360 ani PS3,startowała seria 6xxx.Także co do wymagań jestem raczej spokojny, engine jest od początku pomyślany jako multiplatformowy, także nie trzeba obawiać się jakiejś marnej konwersji(Dirt,Lost planet). Trochę daje do myślenia Ranibow Six -Vegas,ale sama licencja na świetny engine nie powoduje ,że wzrastają umiejętności twórców gry.
-
Budżetowe Mobasy Na 690g | Głównie O Foxconn A690gm2ma-8krs2h
BezbronnyPL odpowiedział(a) na beka temat w AMD
U mnie na niepodkręconym Brisbane użycie procka przy odtwarzaniu WMV HD 1080 wynosi 20-40 % na Bartonie 100% i pokaz slajdów + rozjechany dźwięk z obrazem .Po odpaleniu NV Pure Video użycie CPU spada do ok.20-25%(chwilowo 35%),oczywiście w tle działa jak zwykle pare progsow. Przez chwilę też zastanawiałem się nad C2D, ale po odpaleniu dema Lost Planet, i jednoczesnym ripowaniu+kodowaniu do mp3 płyty CD, zmieniłem zdanie.Nawet pożyczyłem ponownie GTA San Andreas ,gdyż pamiętam ,że na pojedynczym CPU miałem dziwne przyspieszenia w tej grze(podkreślam pojedyńczym CPU).NA X2 tego nie zauważyłem,więc jestem zadowolony. Stwierdziłem ,że wolę lepszą(w danej cenie) mobo i grafe niż CPU.Co prawda nie udało mi się kupić Biostar TA 690G,ale z KN9 jestem bardzo zadowolony :) Z X2 też, co prawda, początkowo nie zauważyłem jakieś drastycznej zmiany przy pracy w XP, ale już po odpaleniu kilku instalatorów(szybkość wypakowywania archiwów), skanowaniu KAV+ np.gierka itp pracy wielozadaniowej widać przewagę dwóch jajek.Po OC (tymczasowo 2,4Ghz ) jest tylko lepiej, i mam świadomość ,że nie muszę dawać jakichś kosmicznych napięć ,żeby coś wydusić z proca.