-
Postów
754 -
Dołączył
-
Ostatnia wizyta
Treść opublikowana przez BezbronnyPL
-
Widze ,że masz GF6800GS czyli nv40 z mozliwością odblokowania potoków.Z tego co napisałeś problem dotyczy ewidentnie karty graficznej-"po odblokowaniu potoków".Podobna sytuację mieli na Guru3d z PoV GF6800GS-mieli uszkodzone jednostki Pixel Shader,i w zasadzie nic z tym nie da się zrobić.Modowalnych GS jest pewnie bardzo mało i szansa rafienia na taki układ jest niewielka.Możesz spróbować podnieść napiecie GPU(bodajże Sideband podawał ostatnio komuś zmodowany biosik V+).Ale tak jak wspomniałem szansa na poprawienie czegokolwiek jest praktycznie żadna-na pocieszenie pozostaje włączyc pozostały vertex shader-zawsze coś.
-
A wiesz jaka bedzie cena tego gadżetu?Specjaliści od marketingu nie za bardzo jeszcze wiedzą jak ja wycenić-ale wstępnie ustalono cene na 230$,troche dużo nie sądzisz?Zwłaszcza ,że bedzie to wykorzystywać tylko UT2007 i zanim się upowszechni(o ile w ogole to nastąpi) miną lata.Zresztą nawet jezeli we wspomninej grze bedzie to nieżle działać,to nie zmienia faktu,że np.w grze sieciowej posiadanie przez niektórych akceleratora fizyki zwiększy ich interakcję z otoczeniem i potencjalnie szanse wygranej.Na takie nierówne traktowanie,żadna gra sieciowa nie może sobie pozwolić-i to nie jest moje zdanie tylko developerów.Karte graficzną (lepszą bądź gorszą)ma każdy gracz-akcelerator fizyki będą mieć raczej zapaleńcy(o ile w ogóle ukarze się w sprzedaży). Lepszym rowiązaniem byłoby przyspieszanie fizyki przez ...kartę graficzną.A taki np.HAVOC(po raz pierwszy zaprezentowany szerszemu forum w 3dmarku2001 w gierce z samochodem)jest obecny w ok.100 tytułach (FEAR,HL2)i ciągle jest rozwijany.Działa nieżle i wolałbym zainwestować w dwurdzeniowe CPU niż gadżet do jednej bądż dwóch gier(no i 3dmarka06).
-
Tak się własnie zastanawiałem ,kiedy zaczną się porównania FX-ów do kart ATI w najnowszym 3dmarku. To jest już troche inna sytuacja,FX były kiepskie, ponieważ wolno realizowały kod shaderowy uzyskany np.za pomocą kompilatora microsoftu(HLSL),i zresztą każdego innego oprócz Cg(NV).Zresztą temat był wałkowany i nie ma co do tego wracać. Obecna sytuacja kart ATI x800 jest nieco inna,faktem jest ,że nie są w pełni zgodne z dx9c(shader model v.3)ale część zaawansowanych opcji shaderów v3. mogą realizować-jest tak np.z MRT-odroczonym cieniowaniem.Technika ta ,pozwala zaoszczedzić wielu obliczeń(przebiegów jednostek cieniujących) przy kilku żródłach światła.Równierz mapowanie przemieszczeń (displacement mapping)jest obecne w kartach ATI już od dawna(R.9700),a produktach NV dopiero od serii 6xxx.Problem ograniczonej długości instrukcji można obejść stosując Multipassing(lącząc kilka krótszych programów shaderowych). x800/1800 dysponuje sprzętowym wsparciem dla kompresji map normalnych-3Dc.Jakość tekstur(z mapami wypukłości) jest zauważalnie lepsza niż przy użyciu innych metod kompresji.Karty NV niestety nie obsługują sprzętowo tej funkcji(ale trzeba przyznac ,że ją realizują) To ,że niektóre testy nie są dostępne dla wszystkich kart graficznych- już przerabialiśmy w 3dmarku 01/03 więc to nic nowego,jedynie będzie przeszkadzac ich właścicielom(mniej pkt.)czyli aspekt psychologiczny "hmm...czas na zmianę karty".Z marketingowego punktu widzenia,karty te są na straconej pozycji -w rzeczywistości jeszcze długo bedzie można na nich pograc -co oczywiste. X1800/x1900 na pewno się obronią-nawet specjaliści nie są pewni czy lepsza jest architektura 48 PS 16 ROP/8VS w x1900 czy nieco bardziej tradycyjna(?) w g71.Wyjdą sprzęty -bedzie wiadomo.Jeżeli kanadyjscy spece od sterowników nie bedą zawalać sprawy,a Radki bedą w sklepach ,powinno być ok.Jednocześnie NV jest nieco bardziej faforyzowana przez developerów,program "NV meant to be..." kosztuje ok.150 mln.dolarów rocznie.Całkiem pokaźna sumka by przekonać wielu z nich do wybrania "słuszniejszej" drogi. No i w tej chwili przewagę ma NV-i osobiście watpie ,żeby się to zmieniło w najblizszym czasie. Co do samego 3dmarka06(05SE)zawsze był to benchmark symulujący gry jakie pojawią się w pózniejszych latach,i zawsze wynik skalowany był do ok.4500Pkt dla najwydajniejszej karty/systemu na rynku(np.3dsmark01 z GF3Ti itd.).Także liczba pkt.nie powinna byc dla nikogo zaskoczeniem..Pozostaje jedynie zadać pytanie kiedy to zobaczymy w grach?Być może już za pół roku wraz z demkiem UT2007,ale coś mi się tak wydaje ,że aż tak źle jak w 3dmarku06 nie będzie -z półoficjalnych wypodziedzi przedstawiciela Epic na forum Beyond Unreal,system z CPU 3GHz+GF 6800 Ultra+1GB Ram wystarczy do grania z zadowalającym-jak to ujął-frameratem w 1024x768 na ...High.To ,ze gra wygląda wspaniale(póki co na screenach),wynika z zastosowania wielu nowych technik(wydajnych i relatywnie zasobooszczędnych).NP. Carmack opracował jakijś czas temu tzw.Mega Texture(tak no nazwał)=świetne efekty,a w skrócie -bardzo szczegółowe mapy-przy niewielkiej liczbie polygonów i zajętości VRAMU,ta technika ma byc wykorzystana w najnowszym Enemy Teritory,oraz analogiczna w Unreal Engine 3. wracając do SMARKA-pojawił się silniczek fizyki NovodeX/Ageia,wygląda na to ,że specjaliści od marketingu ,szykują sobie nową strategię na upchnięcie nowego gadźetu, i 3dmark może być PIERWSZYM PROGRAMEM (ach),który bedzie mógł z tego skorzystać(tylko jeszcze nie bardzo wiadomo po co).Na targach CES 2006 pokazano sytem z akceleratorem fizyki-30FPS z pojedyńczą kartą VS 5 FPS z 2x7800 -SLI bez akcelertora. Także co bardziej naiwni już zaczną na taką zabaweczkę zbierać. Jedynie trzeba przyznac twórcom benchmarku,że 256 Video RAMU to już praktycznie konieczność.I stąd przycięcia na kartach z 128MBVRAM. Sorki za przydługi post.Zebrało mi się jak czytam ten topic.
-
Nie no -u ruskich znalazłem taniej-tak tylko zapytałem.Ale ze względu na regulamin nie bedę im robił reklamy.
-
Rozumiem ,że już wszyscy(lub prawie) się zaopatrzyli w wer.PRO?
-
Kilka gier 64 bit? Far Cry to raz....długo nic ...HL2 to dwa...Pominąłem coś?Jeszcze długo nie będzie "czystych" 64 bitowych gier,nie ma jeszcze wielu podstawowych programów,sterowników,a co dopiero gier.
-
Spróbuj wyłączyć w Biosie AGP Master 1WS Read/Write.Zmienić na AGPx4(miedzy x8 a x4 róznica w wydajności wynosi ok.1% ,więc jest całkowicie pomijalna).Wyłącz PCI delay transaction,Sideband Adressing(choć tu nie powinno byc problemów).Wyłącz Video BIOS Shadow/Cachable. Zaktualizuj BIOS do MoBo.To tyle co mi przyszło do głowy. Musiałem poprawic błędy.Wyłącz AGP Spread spectrum-na nic nie wpływa oprócz bniżenia EMI ale mozna to zrobic.. Nie ma porzeby wylaczania wszystkiego co ma AGP w nazwie-sprawdź czy w BIOSie można przydzielić/zarezerwować przerwanie dla karty(reserve IRQ for AGP czy coś takiego).AGPx4 z x8 w wielu przypadkach rozwiązuje sprawe-a nie wpływa na wydajność.
-
Garść wyników z "3dmark05SE"z innego forum. Radeon X1800 XT + AMD Athlon 64 X2 2614 MHz 3DMark Score 4256 3DMarks SM 2.0 Score 1630 Marks SM 3.0 Score 1703 Marks CPU Score 1938 Marks Radeon X1800 XL + AMD Athlon 64 X2 2615 MHz 3DMark Score 3452 3DMarks SM 2.0 Score 1296 Marks SM 3.0 Score 1333 Marks CPU Score 1938 Marks Radeon X1300 Pro + AMD Athlon 64 X2 2610 MHz 3DMark Score 1322 3DMarks SM 2.0 Score 452 Marks SM 3.0 Score 485 Marks CPU Score 1939 Marks Radeon X850 XT PE + AMD Athlon 64 X2 2609 MHz 3DMark Score 2368 3DMarks SM 2.0 Score 1158 Marks SM 3.0 Score N/A CPU Score 1945 Marks Radeon X800 XT PE + AMD Athlon 64 X2 2609 MHz 3DMark Score 2276 3DMarks SM 2.0 Score 1110 Marks SM 3.0 Score N/A CPU Score 1934 Marks Radeon X800 XT + AMD Athlon 64 X2 2610 MHz 3DMark Score 2156 3DMarks SM 2.0 Score 1047 Marks SM 3.0 Score N/A CPU Score 1941 Marks Radeon X800 XL + AMD Athlon 64 X2 2614 MHz 3DMark Score 1870 3DMarks SM 2.0 Score 900 Marks SM 3.0 Score N/A CPU Score 1939 Marks Radeon X800 GTO 256MB + AMD Athlon 64 X2 2610 MHz 3DMark Score 1514 3DMarks SM 2.0 Score 720 Marks SM 3.0 Score N/A CPU Score 1941 Marks RADEON X800 GTO 128MB + AMD Athlon XP/MP/4 2209 MHz 3DMark Score 844 3DMarks SM 2.0 Score 409 Marks SM 3.0 Score N/A CPU Score 795 Marks 7800 GTX 512MB + AMD Athlon 64 X2 2621 MHz 3DMark Score 5552 3DMarks SM 2.0 Score 2384 Marks SM 3.0 Score 2343 Marks CPU Score 1655 Marks 7800 GT + AMD Athlon 64 2016 MHz 3DMark Score 3236 3DMarks SM 2.0 Score 1452 Marks SM 3.0 Score 1457 Marks CPU Score 796 Marks GeForce 6800 Ultra + AMD Athlon 64 2409 MHz 3DMark Score 2442 3DMarks SM 2.0 Score 1044 Marks SM 3.0 Score 928 Marks CPU Score 930 Marks 6800 GT + Intel Pentium 4 3005 MHz 3DMark Score 2178 3DMarks SM 2.0 Score 960 Marks SM 3.0 Score 893 Marks CPU Score 651 Marks 6800 GS + AMD Athlon 64 1800 MHz 3DMark Score 1933 3DMarks SM 2.0 Score 807 Marks SM 3.0 Score 766 Marks CPU Score 705 Marks 6600 GT 128MB + Intel Pentium 4 2668 MHz 3DMark Score 1116 3DMarks SM 2.0 Score 548 Marks SM 3.0 Score 292 Marks CPU Score 690 Marks
-
G71 Kontra R580, Czyli Czym Zaskoczą Nas Najnowsze Karty.
BezbronnyPL odpowiedział(a) na mastermind-pl temat w Karty graficzne
Taki dokument-znaleziony na...będzie widac..Chociaż o potokach(a raczej ilości pixel shaderów w poszczególnych "mutacjach" ani słowa).Ale jakie PSU są wymienione-hmm.Pozdrawiam. -
Nie no-tak to ująłem-bez urazy. Ale jezeli na coś się decydujesz ,to bierzesz wszystkie za i przeciw-bo przecież trudno oczekiwac cudów za te pieniądze i na kompie z np.512MB RAM-u. Ale jesli miałbym rozwarzać 9800ProVS 6600GT to bez zastanowienia brałbym 6600GT-dużo nowszy itp.już sie nie będę rozpisywał-pózno już. A ja przesiadałem się z GF6800 (12/6-400/850)na zwykłego 6600(praktycznie nie gram) i jedynie co mam za złe 6600 to tragiczną wydajność z FSAA(i chociazby dlatego R.9800Pro byłby lepszy-jezeli oczywiście komuś zalezy na FSAA). Co do pamięci-nie jest aż tak droga-wystarczą zwykłe Goodramy-i kieszeń nie bęzie aż tak bardzo uszczuplona-a wolałbym 1,5GB RAMU od Goodram niż 1GB Gskill.OCZ Platinum,Corsair itp. RAM ma poza tym tą zaletę ,że łatwiej go dokupić niż zmienić grafikę przy ograniczonym budżecie.To narka.Pozdrawiam.
-
Następny... :mur: Poczytaj troche -dokształć się -i wtedy zrozumiesz atrykuł z egiełdy.(albo pocztaj ten topic parę? stron wstecz). Na egiełdzie zamieszczonio stosowne sprostowanie co do tego artu-ale już mi się nie chce szukać.
-
Następny... :mur: Poczytaj troche -dokształć się -i wtedy zrozumiesz atrykuł z egiełdy.(albo pocztaj ten topic parę? stron wstecz). Na egiełdzie zamieszczonio stosowne sprostowanie co do tego artu-ale już mi się nie chce szukać.
-
Opatrznie mnie zrozumiałeś.Nie choodzi o to ,że nienależy kręcić,tylko że należy to robić z głową. Unwinder-twórca Rivy Tuner na swoim forum jednoznacznie wypowiada się o tym(Disble Clocktest)-jak znajde dam linka.W skócie-wyłaczasz test-oszukujesz sam siebie(Unwinder),można to zrobic do marków ale nie na codzien(to już moja opinia).I dobrze o tym wiedzieć. I nie napisałem ,że nie nalezy używać RT bo sam używam Rivy od 4lat-to najlepszy soft do NV. Chodziło mi o to,że programy działają w ten sam sposób(czyli za pośrednictwem sterownika NV).Jak ktoś chce używać Power Stripa bo wierzy ,że lepiej podkręci karte-to wierzy w bajki.Niech używa czego chce i co lubi -to naprawde obojętne-wazna jest jego wygoda/przyzwyczjnie itp. I nie napisałem też że nie nalezy podkrecac CPU bo coś tam-każdy kręci jak umie?No to jeżeli kreci i nie sprawdza CPU Prime95/Super Pi itp.(lub akceptuje błedy CPU w tych programach) ,to znaczy że jeszcze musi się "naumieć",np.jak zwiększać Vcore w tym przypadku(zresztą niewazne). Ja nie usiłuje nikogo przekonać do swoich racji-tylko jak czytam nieraz jakieś wypociny 15 latka(zapewne)-niekoniecznie w tym topicu-to jestem przerażony bestroską ,czasem niewiedzą albo wiarą w mity-po prostu. Także zanim odpowiesz to przeczytaj uwaznie to co napisałem.Nie odnodze sie konkretnie do kogoś-pisze bo jak ktoś bedzie miał większą wiedzę ,to przecież tylko + dla niego.Nic więcej-po to jest forum.
-
Rozbawił mnie ten post.Po pierwsze co do tych pisanych patykiem potoków 6600-mozna tą kartę nazwac nawet 4 potokową-nie zmnieni to faktu ,że zachowuje sie jak 8 potokowa.Podobnie sytuacja ma sie z 7800GTX,tą kartę też praktycznie nalezałoby nazwać 16 potokową....ale problem w tym ,że zachowuje się jak 24 potokowa(16 potokowy X1800 musial mieć konkretnie pogonione zegary by dorównać 7800GTX).Cały kłopot w tym ,że nv w swoich konstrukcjach odzieliła Pixel Shadery i TMU od rasteryzerów ,stąd trudności z klasyfikacją-zresztą jest to nieistotne -bo liczy się wydajność. Nie potrzeba tlumacza-tylko wiedzy. Szyna 256bit przydaje się tylko i wyłącznie do gry w wysokich rozdzielczościach+FSAA- na to Radek i 6600GT są za słabe więc przewaga R.9800Pro jest tylko teoretyczna, w praktyce czym nowsza gra tym lepiej(co nie znaczy że świetnie) będzie wypadał 6600GT. Co do gier pisanych pod Nvidie-tak się nieszcześliwie dla ATI składa ,że karty NV od zawsze świetnie radziły sobie w aplikacjach OpenGL,(lepsze rozszerzenia-nie optymalizacje)i to ,że akurat Doom3,Quake4,Chronicles of Riddick itp.jest w OpenGL-to jest wina NV?Sponsorowane testy?To trzeba je porównywac a nie ślepo wierzyć w marketingowe obiecanki. Musiałeś dołożyć 512MB RAMu-?No cóż-1024 to absolutne minimum do nowych gier,a 1-5-2GB też się przydaje,więc chyba przeoczyłeś ostatnie 2 lata w rozwoju gier.Nic nie mam do do ATI-wręcz przeciwnie uwazam ,że 9800Pro jest lepszym wyborem niż 6600 ,ale na takie posty z pretensjami ,to już czasem musze odpowiedzieć.
-
Witam!Ponownie pojawia sie problem z piszczącymi kartami,pisałem o tym niedawno(w innym topicu)-ale napisze jeszcze raz. Piszczy jeden z elementów zasilających GPU/VRAM ( najpradopodobniej VRAM),a ściślej mówiąc cewka indukcyjna(kołko z nawinętym drutem).Trzeba ją zamalować lakierem do poznokci-i po sprawie.Szczerze powiedziawszy,sądziłem ,że o tym już wszyscy wiedzą-problem dotyczy także co poniektorych MoBo -ale przede wszystkim kart graficznych. Co do wyłączania testów w Riva Tuner-wyłączając test nie spowoduje się ,że karta bedzie się lepiej podkręcać-bo tak nie jest.Sterownik przed wyłączeniem testu nie akceptuje zmian,ponieważ GPU/VRAM nie pracuje prawidłowo.Po wyłączeniu testu(Disable Clock Test)nadal generuje błędy-ktore często są one niemożliwe do wychwycenia "na oko"!-ale sterownik nie ma już nic do gadania,więc niby można kręcić do woli.I ponownie napisze ,że jako przykład może posluźyć OC CPU.Gdy po podkręceniu proca przechodzi on test w Prime95(kilkunasto godzinny),to można przyjąć ,że praktycznie w 100% OC się udało. Ale są tacy ,którym Prime95(itp.)generuje błędy ale komp pomimo tego działa miesiącami , nic się nie dzieje ,więc wszystko jest ok.I teraz ,które podejście jest prawidłowe?W/g mnie błąd w Prime,SuperPi itp.jest nie do przyjęcia.To samo dotyczy testu w ForceWare,nie przechodzi testu-nici z OC,trzeba się ratować dovoltowaniem GPU/VRAM-u,lepszym chłodzeniem i próbować dalej a nie się oszukiwać. Bo jak tak dalej pójdzie ,to dojdzie do wyłaczania "Robust Channels" by czasem karta nie przechodziła przy przegrzaniu w tryb low power 3D.Tyle ode mnie. I jeszcze jedno-podkręcanie za pomocą Power Stripa,Rivy,Coolbits i wynalazkami z rodzaju NVHardPage ,NICZYM się nie różni-działa w identyczny sposób(na poziomie/za pośrednictwem sterownika) -no chyba ,że komuś kończą się suwaki i nie potrafi tego zmienić ,to inna sprawa.
-
Avast 4.6 Pro - Co O Nim Sądzicie, Jakie Wady, Jakie Zalety?
BezbronnyPL odpowiedział(a) na tooomasz temat w Oprogramowanie
Używałem kilku antyvirów-w tym również Avasta 4.xx Pro i niestety nie mam zbyt dobrego zdania o tym programie,mówiąc w skrócie ,jeżeli masz zamiar zaplacić za jakiegoś antywirusa ,to powinny to byc dobrze zainwestowane pieniądze.Przez ok. miesiąc jego użytkowania byłem pewny ,że kompa mam czystego od wszelkiego robactwa(a używam Firefoxa+Thunderbirda,AdAware,SpyBot+Outpost Firewall Pro oraz zwykłe konto z ograniczeniami w XP),wiec wydawalo by się ,że wszystko ok.Ale na pewnwej stronce znalazłem niezależne testy Antywirusów i Avast wypadł/wypadał(odkąd zaczeli go testować) na szarym końcu.Za radą znajomego ,który jest administratorem w dużej sieci zainstalowałem Kasperskiego 5.x Pro-szczęśliwie się złożyło ,że akurat wer.PRO była w magazynie ENTER jakiś czas temu-zresztą po okresie testowania i tak miałem go kupić.Okazało się że po instalacji KAV znalazł "tylko" 2 trojany i coś tam jeszcze. Wspomniany Admin napomknął tylko ,że u niego w firmie(i u wszystkich znajomych ktorym polecał KAV) skończyły się problemy z virami itp.odkąd mają ten program. Zresztą w/g testów wypada w ścisłej czołówce(razem z NOD32).Co do noda-zainstalowałem 30 dn.wersję i przez ten czas mnie nie zawiódł-ale mimo wszystko wolałbym KAV-bardziej przyjazny interfejs,działa jak trzeba-ale to tylko moje zdanie. -
Co do "skwierczenia" wymienionych kart graficznych(zresztą dotyczy to też niektórych płyt głównych),odpowiedzialne za to są cewki indukcyjne(to te kółka z nawiniętym drutem),wraz z kondensatorami pełnią rolę filtra-są elementem układu zasilania (GPU w tym przypadku).By pozbyć się tej przypadłości ,trzeba je(cewki) zamalować/pokryć lakierem do paznokci ,to wszystko. Co do odczytu temperatury przez Rivę Tuner(15.8) za pomocą wtyczki NVThermalDiode.dll-jest on identyczny z odczytem sterownika.Co za tym idzie jest w 100% pewny i prawidłowy.
-
Jest taki jeden program,nazywa się...ATI Tool(v.2.5). Zresztą po co tego używać?Jeżeli sterownik zaakceptuje zmiany i po przejściu np. 3dmarka05 i natychmiastowym sprawdzeniu ,czy ponownie sterownik zaakceptuje zegary ,to jest b.duża szansa, że karta będzie poprawnie działać z tymi zegarami.No chyba ,że wyłączysz test w sterownikach-ale wtedy tylko oszukujesz sam siebie.
-
Porównanie Kart Dźwiękowych Creative
BezbronnyPL odpowiedział(a) na piohal temat w Słuchawki, Głośniki, Odtwarzacze, Hi-Fi, Karty Dźwiękowe
Spokojnie możesz brać, Audigy ES-jest to pełny Audigy(EAX3/4 ) jedynie bez złącza FireWire , Wer.1394 ma to zlącze-jest też nazywana Player/Gamer. Unikać należy jedynie wersji LS,SE-tanie konstrukcje bez sprzętowej obsługi EAX Advanced HD. Jeżeli chodzi o jakość dzwięku-tak naprawdę różnice pomiędzy Audigy 1 i 2 są raczej niesłyszalne. Oczywiście Audigy 2 w wer.OEM tez jest godny polecenia.Poza tym jeśli nastawiasz sie głownie na odsluch muzyki,to sterowniki Creativa raczej nie są dobrym rozwiązaniem(->kX) Jak rozpoznać karty?Wersje LS,SE mają inną płytkę PCB(mniejszą). Co do innych róznic-no cóż najlepiej poszukać w sklepach i na stronie producenta-osobiście gdy kupowałem kiedyś karte miałem podobny kłopot,a Creative raczej wyboru nie ułatwia-także sklepy(kilka). Zresztą w dziale o X-Fi też znajdziesz cenne uwagi. -
Americas Army-z tych rzech tytułów ma relatywnie najmniejsze wymagania,jest w wiekszym stopniu uzalezniony od szybkości CPU niż COD2 i Battelfield2.Na pewno pograsz w najwyższych detalach +FSAA x2/4 +FA 4/8.W zasadzie nawet w 1280x1024 nie powinno byc problemów(jedynie FSAA+FA trzeba zredukować). COD2-ta gierka ma tak skopany silnik,że nawet na 7800 nie chodzi jakoś specjalnie szybko-choć zadowalajaco. Także cudów nienależy się spodziewać ale ,nie powinno być żle-jedynie tekstury bedą w nizszej rozdzielczości z uwagi na 128MB VRAM na pokładzie. Battelfield2-oprócz rozdzielczości tekstur gdzie na karcie ze 128MB nie ma co jej ustawiać na High,to pozostałe opcje w wiekszości mogą być ustawione na najwyzszą jakość(geometria,teren,zasięg widoczności,filtrowanie tekstur -High pozostałe raczej na Medium i FSAAx2 może x4). Generalnie na 6600GT da się pograć-wydajność tej karty jest niemalże identyczna jak standartowego i niepodkręconego GF6800,a po OC może byc nieco szybsza nawet w 1280x1024- zobacz ten test A ponieważ masz/mialeś FX5200 to skok wydajności będzie ogromny-sięgający kilkuset procent w aplikacjach dx9.
-
Sczerze powiedziawszy w żadnym wypadku nie kupiłbym zadnego Silencera,a już sczególnie na 6800.Dlaczego? Konstrukcja tego chłodzenia ma pewną wadę,a mianowicie przykrywa układ zasilania na karcie tzn.tranzystory mocy.Bywa,że niechłodzone mosfety wręcz wtapiaja się w płytkę PCB.Zdarzało się to dość często w Galaxy Glacier,oraz Radeonach 9800 co zresztą znajduje potwierdzenie w postach na tym forum. Co do głosności,jest ona subiektywna,i może zależeć od konkretnego egzemplarza(serii),ale słyszałem kilka sztuk-i w/g mnie poziom głosności -szczegolnie w nocy jest- nieakceptowalny -przynajmniej dla mnie. Co do Zalman vs Pentagram,generalnie to praktycznie to samo.1 stopień roznicy w wydajności, to śmiech ,bo może wynikać z wielu czynników(mniej/więcej pasty,inaczej -mniej rownowmiernie nałożona itp). Wybierając Zalmana płacisz nie tylko za marke - jak niektorzy piszą,ale za wysoką jakość,precyzyne wykonanie,przemyślany oraz łatwy montaż i dopiero na końcu za napis Zalman na każdym finie. Pentagram?Jeżeli chcesz mieć tą samą wydajność(lub lepszą?) za mniejsze pieniądze ,akceptujesz niedoskonałości XC,to ten wiatrak jest dobrym wyborem.Osobiście wybrałbym Zalmana,ale np.jeśli w sklepie akurat by go nie mieli to biorąc Pentagrama wcale nie miałbym odczucia ,że to zły wybór-wręcz przeciwnie. Ale jeżeli szukasz czegoś naprawdę wyjątkowego to TO Jest w wersji Ultra z dodaną rurką Heatpipe .Standartowa V1 jest w zupełnosci wystarczjaca. W/g mnie ,to obecnie jedno z najlepszych rozwiązań do chłodzenia GPU.
-
Nie wiem jak obliczyłeś te 290W.Twój komp zużywa ok.170-180W pod maksymalnym obciążeniem,oczywiście nie znaczy to ,że można użyć zasiłki 200W ,ale ATX2.0x 300W dobrej firmy by wystarczyło.Jeżeli już masz problemy na Tracer 350W przy tym konfigu ,to tylko żle świadczy o Tracerze(ktory ponoć się ostatnio poprawił). Także -tak jak proponował Fresh-Fortron ,w tej cenie(ponizej 100zl)nie kupi się obecnie niczego lepszego.
-
NV w swoich kartach stosuje różne czujniki,w zależności od typu zastosowanego czujnika , sterownik dodaje pewną -stałą- wartość wynoszącą kilka stopni.NVThermalDiode.dll odczytuje temperaturę za pośrednicwem sterownika(jak mialbyś w sterach zakładkę z odczytem temperatury to podawałaby taki sam odczyt jak plug-in Rivy).Także odczyty są poprawiane/kompensowane przez sterownik.Odczyt default,to "czysta" wartość uzyskana przez niskopoziomowy dostęp do tegoż czujnika.
-
Odczyt podawany przez Riva Tuner/Everest jest prawidłowy,te podawane przez np.Speedfan'a lub Winfox'a są błędne.Nie będę już pisał dlaczego tak jest-także RT/Everest.
-
Moj post dotyczy GF6600GT Galaxy z Zalmanem vs GF6600GT Leadtek,a nie 6600GT vs 6800(LE).Co do opłacalności -to wiem co warto kupić.