-
Postów
754 -
Dołączył
-
Ostatnia wizyta
Treść opublikowana przez BezbronnyPL
-
timingi dla pamieci-2,5ns Timing 0 06101A16 Timing 1 05010406 Timing 2 20240406 Nie są to timingi skopiowane z innych kart itp. Miłego OC.
-
@ojejku Szanuje twoj zdanie.A skąd wiem?-no cóż wypowiadali sie o tym programiści,im akurat nie można zbytnio zarzucić bycia proNV ,czy proATI najcześciej wybierają(o ile oczywiscie nie namiesza wydawca) ,to co , pozwala im uzyskac lepsze efekty mniejszym nakladem pracy.Jest to chyba normalne dla każdego.Proponuje poczytac hmm- choćby fora dla developerów.A daleki jestem od wiary w słowa ATI czy NV.A pozatym karty nv ma jedna irytujacą wadę-tak szeroko reklamowany HDR w standardzie OpenEXR,SoftShadows,i inne "bajery ",a nawet ich High-endowe produkty tak naprawdę ledwo to "ciagną",a przecież kupujac taka karte oczekiwałbyś ze można je odpalić bez tak drastycznego spadku wydajności i jak nakazuje przyzwoitość z FSAA -a tu?Lipa-to mam za złe NV.Problem w tym ,że na nowe tytuły sobie poczekamy, i nie każdy bedzie mial ochotę czekać(z nadzieją) na to czy ATI pokaże pazurki czy nie,i wybiorą produkt nv-i wcale żle nie zrobią .
-
Powiem jedno-zamiast modyfikowac/zmieniać chłodzenie i bawić sie w coraz wieksze OC by zyskać 10FPS,to chyba juz lepiej zmienic grafikę? 10FPSów -duzo czy mało-to zależy od konkretnego tytułu,owszem pisząc o "powyżej 500Mhz"miałem na myśli wartości do ok.550Mhz,a nie 600+(i przy DDR ok.670 a nie 730+)-co raczej nie jest przecietnym wynikiem.Poza tym wystarczy włączyć FSAA i zaraz odezwie się waskie gardlo w postaci wolnych pamięci(i 4 rasteryzerów) i 600Mhz też za wiele nie pomoże,Druga sprawa- wartości 500/1000 w wer.GT nie są przypadkowe,i często można zaobserwować że 400/800 daje podobne rezultaty jak 500/600 czy 500/650 ale to też zależy od tytułu(jak bardzo obciąża jednostki pixel shader,,jak wykorzystuje vertex shadery). Testowalem/modowałem 6600 nie 6200.A o zależnościach miedzy poszczególnymi napieciami zdaje sobie sprawę-mnie ta info się nie przyda-ale innym jak najbardziej. Podsumowując -co kto lubi,ja 10FPS więcej uzyskam dzięki Audigy2, ktoś inny przez OC ,jeszcze inny przez zakup szybszej karty .Pozdrowienia.
-
Przeczytaj mój post parę (3?)stron wcześniej i myślę ,że da Ci wiele do myślenia.W tej chwili nie ma ŻĄDNEGO enginu który można by opisać przydomkiem "nowej generacji".Najbliższy jest Unreal Engine 3,który wreszcie ma pokazać ,to do czego stworzono ATI X1800/GF7800,czyli displacement mapping,offset mapping,HDR(OpenEXR?), i wiele innych ,wszystko to przy użyciu shader model v3,który to jest lepiej zaimplementowany w X1800 niż GF6xxx/7xxx .Jedynie silnik JupiterFX (FEAR)próbuje -dość nieudolnie zresztą -korzystać z nowych funkcji/efektów.Panowie z Infity Ward-to Ci od COD2 -również coś namieszali,ale- w mojej opinii -ich silnik to programistyczny bubel-raczej nie pisali go z myślą o licencjonowaniu,a o "odcięciu kuponów" od COD.Co do testu-w tej chwili jest tak ,że nawet X850PE bywa szybsze od X1800,więc póki sterowniki są w tak wczesnym stadium, niewiele jest gier korzystających z zaawansowanych funkcji SM3- testy należy traktować z dystansem.Osobiscie mając do wyboru serie X a GeF wybrałbym X.
-
Nie mam pretensji-torchę mnie to tylko poirytowało-tzn.ktoś pisze jeszcze raz to samo ale w topicu o 6600/6200(a sciślej mówiąc wchodzi gość- i opisuje to co było stonę wczesniej).Ale ok. Co do napiecia-w.g mnie maksymalne to 1,55V przy zapewenieniu dobrego chłodzenia,trzeba pamiętać że nv43 jest wykonany w technoligii 0,11 mikrona,a to oznacza mniejszą tolerancyjność na wysokie napięcia, niż np.FX5900 ,które wykonane były w technologii 0,13 mikrona.Dlatego w FX- V podbijano znacznie wyżej-tak jak napisałeś do 1,7V.Dla 6600,6200 1,55V to bezpieczne maksimum(1,45V nakazuje rozsadek).Zreszta tak jak wspomniałem,do 6200/6600 trafiają "odpady" z wer.GT,miałem okazje zmodować 3 egzemplarze Leadteka i zaden nie był stabilny powyżej 530Mhz na rdzeniu przy V=1,45 ,a to oznacza, że to te czipy, które nie przeszły testów do wersji GT(czyli 500Mhz przy 1,4V.).Zreszta podkręcanie tych kart powyżej 500Mhz praktycznie pozbawione jest sensu-tylko w 3dmarkach można uchwycic różnice-a i to najlepiej w 1280x1024.Co do pamieci-Hynixy moga działać do 2,9V,i w zasadzie nawet podbicie V do 3,2V nie zawiele daje-wiecej uzyskuje sie przez zmiane timingów(ja zyskałem z 690@740),a i nie sprawdzałem jeszcze luzniejszych.Poza tym płytka PCB raczej nie jest przystosowana do czestotliwości powyżej 800Mhz.Jeszcze jedno- u Ciebie ewidentnie NIEDOMAGA układ zasilania na karcie(dlatego możesz podkręcać GPU kosztem VRAMU a nie na raz równocześnie). Zresztą 800Mhz -- to ŚWIETNY wynik-jeden z najlepszych na 6600 jakie widzialem.Pozdro.
-
Jak komp nie piszczy-to znaczy ,że wszystko ok.,ale sprawdzisz i bedziesz wiedzial.A-karta ma dodatkowe zasilanie z linii 12V,więc jak wystaje nawet ze slotu zlącze krawedziowe to i tak nie problem-z tego co pamietam te pierwsze styki to zasilanie.
-
Proponuję zajrzeć do działu-6600 opisywałem tego moda na str.124.Mam go (moda) od ponad pół roku(na A6600TD),grafit jest trwały, w zadnym wypadku nie należy go z niczym mieszać,problem moze byc w z gwarancją,ale jak ktos chce sobie zrobic to na stałe-wystarczy zalac R510 (leadtek 6600/6200)np.cyjananopanem,oczywiście o gwarze może zapomnieć.Co do timingów-też je podałem,podam jeszcze bardziej poluzowane-i sprawdzone ,a nie przypadkowe jakie krążą po sieci(np.te zmodyfikowane przez program ntimings są błędne).
-
Jezeli karta jest dobrze przykręcona,zatrzask na slocie AGP(o ile taki masz)też trzyma,to nie masz się czego obawiać.No chyba ,że przy montażu urwiesz/urwałeś jakijś kondensator..lub wygiąłeś laminat,ale musiałbyś mieć niezłego pH i mieć 2 lewe ręce,żeby tak "nabroić".
-
Ja poszedłem do sklepu metalowego-mieli rożne grubości,najlepiej kupić cieńszą(poniżej 1mm) i 1mm,ponieważ może się zdażyć ,że wiatrak w jednym miejscu bedzie odsunięty od kości pamięci o ponad 1mm,a z drugiej strony mniej(choć można wcisnąć blaszkę).Oczywiście jeśli masz zamiar przykleić ja na tasmę dwustronną(czesto odpadają) miedzianą ,czy też zwykłą ,musisz zastosować cieńszą blaszkę-nawet 0,5mm wystarczy ,poniważ jest ciągły nadmuch wiatraka GPU. Koszt blaszki?ok.5zł za kawałek 5x8cm,silikon kosztuje podobnie.Kostki VRAM wyczyścić i odtłuścić(Alkoholem Izopropylowym-można popytać w aptece,albo kupic w sklepie z artykułami chemicznymi-ale nie takim z proszkami do prania i szamponami -ma sie rozumieć :D ).
-
Tak jak napisałem ,NA SAMYM poczatku-podkręcanie tej kart powyżej 500Mhz praktycznie nic nie daje,wlasnie przez zbyt wolny VRAM-gdyby działał na 800Mhz to juz byłoby coś.I tak pisałem,u siebie tez doszedłem do stabilnych...520Mhz czyli niewiele jak na 1,45V.Szczerze powiedziawszy to moim zdaniem Leadtek(Asus też) używa wręcz ODPADÓW -po GT- w swoich kartach.Czym wcześniej kupiłeś swoją grafikę ,tym masz wieksze szanse na udany OC(pomijając juz wersje A2).Trafiłeś po prostu na kiepski egzemplarz.Sam wiesz,że niektóre bez zadnych modów idą na np.530/730 i więcej.Na szczescie mod grafitowy mozna usunąć i ewentualnie sprobować OC przez crossflashing(wymiane biosu).Albo wymienic grafe-co planuję-na szczescie prawie nie gram więc OC to tak dla sportu...Pozdro(a miernik Ci się przyda) :D
-
Lużniejsze timingi?Skrótowo-timingi-czyli opóżnienia,wynikaja ze sposobu działania pamięci -długo by pisać.Generalnie jest tak-czym szybciej działają pamięci,tym mniej agresywne muszą być ustawione Timingi i jest to normalna sytuacja.Podobnie jest ze zwykłymi pamieciami np. PC3200(DDR 400),dobre moduły mogą dzialać na ustawieniu 2-2-2-5 ,ale jeśli chcialbyś podkręcić proca(szyną FSB oczywiście),musisz je poluzować do np.2,5-3-3-8, lub 3-3-3-9(odpowiednio CAS--tRP-tRCD-tRAS),ponieważ rzadko które moduły potrafia działać z agresywnymi timingami przy wysokich FSB(a te ktore potrafią są z reguły o 100% droższe od zwykłych). Na pewno przegrzewają Ci się właśnie moduły po wiatrakiem GPU,ja poradziłem sobie w ten sposób-kupiłem blachę miedzianą 1mm ,powycinałem je na odpowiedni wymiar(dwie kości na jedna blaszkę)i przykleiłem SILKONEM SANITARNYM-dlaczego silikonem?Ponieważ stosunkowo łatwo go usunać/odkleić w razie czego(czego nie można powiedzieć o klejach termoprzewodzących),wytrzymuje temperatury +150 stopni C(!!)i mozna nałozyć cienka jego warstwę(w przeciwieństwie do np.samoprzylepnych taśm dwustronnych ,ktore są stosunkowo grube).Nie muszę chyba wspominać ,że silikon dobrze przewodzi cieplo(zwłaszcza cienka warstwa).Zreszą podobne rozwiązanie stosują sami producenci-blaszka na kilku pamieciach +poduszki z silikonu.
-
Panowie nie chce wnikać w wasze kłótnie co lepsze-7800GT/X/S czy X1800XT/XL,ale tak przez przypadek przeczytałem o co te kłótnie. Pierwsza sprawa-sterowniki-mozna przyjąc ,że z reguły jest tak ,że nowy produkt może mieć niedopracowane sterowniki,i szczerze powiedziawszy jest to normalne.NV również ma wpadki,choć nie tak irytujące jak zwiechy itp.sensacje,ale za to potrafi miesiącami nie poprawiać błędów, na które skarżą się użytkownicy.Tyle a propo sterów.A co do X1800-to naprawdę wyśmienita karta,jest ZNACZNIE lepiej przygotowana do specyfikacji DirectX9.0c,oczywiscie teraz jeszcze niewielu o tym wie.Poki co, developerzy w niewielkim stopniu stosują zaawansowane możliwośći shader model v3 ,ale gdy zaczną, to NV może stracić koronę króla wydajności.Pierwsze próbki mamy przy openGL(np.Doom3,Quake4),gdzie juz nowe karty ATI dorównują NV,a często je przewyższają.A trzeba zaznaczyc ,że nvidia od zawsze była lepsza w aplikacjach OpenGL(również profesjonalnych).To co jest główną zaletą X1800 to PROGRAMOWALNY kontroler pamięci.Co to oznacza?Pole do ciągłych optymalizacji i ulepszeń na najbliższe kilka lat(ten sam kontroler-architektura Ring Bus- zostanie z bardzo dużym prawdopodobieństwem użyta w następnej generacji kart ATI).I nie są to bynajmniej jakiejś nieuczciwe optymalizacje,po prostu.,twórcy sterowników będą się uczyć wykorzystywać ten kontroler.Inna sprawa ,to zawaansowane funkcje shader model 3.Przykład?Kontrola przebiegu-już teraz wiadomo że NV nie ma się czym pochwalić,wystarczy ,że programiści zaczną to wykorzystywać(a zaczną na pewno )i ...Ale NV ma świetny marketing i co tu dużo gadać -w sumie niezłe karty.Może inny przykład?Ok.HDR-w standardzie OpenEXR, można zapomnieć o FSAA gdy korzysta się z tego efektu na GF6xxx,7xxx,na x1800-proszę bardzo.Może inny przykład?ok.MRT-Multiple Render Target -odroczone cieniowanie,pozwala zaoszczędzić wiele obliczeń,tzn.zmniejszyc liczbę przebiegów jedostek pixel shader,przy wielu żródłach światła.FSAA z MRT na GeForce?Mozna zapomnieć.Na X1800-jak najbardziej działa.Przed ATI jeszcze długa droga,do uzyskania pełnej stabilności , i wydajności swoich kart,ale w moim przekonaniu,dziś kupując X1800 inwestuje się w dobre,przemyślane rozwiązanie.po prostu ATI nie może sobie pozwolić na stworzenie produktu przejściowego-byle by wypuścic coś nowego-a potem się będziemy martwić.Trzeba tylko znosić grzanie się tych kart(hałas),a na tym polu musi się to zmienić,bo FX5800 wypadł z rynku głównie przez niemiłosiernie głośne chłodzenie(między innymi).X1xxx to nie grozi,ale głosność to też istotny element brany przy zakupie grafiki. Podsumowując-jak ktos ma GF7800,to ma świetną,wydajną kartę ,z pewnymi dysfunkcjami,ale stabilną ,bezproblemową i b.szybką.ATI-zagryzasz zęby i czekasz na nowe Catalysty, ale wiesz ,że masz niezły sprzęt,czasem może wkurzający-ale z czasem pokaże pazur.NV pozostaje podkręcanie,ATI-ulepszanie.Do czasu DX10 i shader model 4,nowego 3Dmarka z minimalnymi wymaganiami na poziomie karty z 256 VRAM na pokładzie.Pozdro dla wszystkich maniaków 3d. Aha-sam mam nv-żeby niebyło ,że jestem stronniczy.
-
Tak grafit da się usunąć,bez najmniejszego problemu-najlepiej wacikiem do uszu:) ,nasączonym alkoholem izpropylowym(ok.5zł),nie np.spirytusem salicynowym!!Ani gorzałką... Jeżeli zrobisz wszystko tak jak opisałem,nie pomylisz rezystora,nie przedobrzysz-to bedzie ok. Wskazówka-ja doszedłem na 1,45V tylko do 520Mhz,moim zdaniem jest to wynikiem tego ,że Leadtek(inni też) stosują GPU które NIE przeszły testów do wer.GT(stabilne 500Mhz przy 1,4V), czyli zagospodarowują wszystkie układy.Ja mam od dawna zmodyfikowany orginalny bios i zarysowany rezystor(VGPU),grafit jest trwały,jak przez przypadek go nie wytrzesz ,to nic z nim się nie stanie(np.mój stary Duron z odblokowanym ołówkiem mnożnikiem działa do dziś- 3lata!--oczywiście juz nie u mnie a u znajomego.)Poradnik?Tak to zdecydowanie wielu osobą ułatwi zabawę w OC. PS-dobre ,mocne światło+szkło powiekszjące mogą pomóc.
-
Mistrzu -zajrzyj stronę wcześniej(124) i będziesz wiedział wszystko. A to ,że pamięci sypią artami,wynika ,ze albo nie są dobrze chłodzone,albo zastosowałeś złe(źle wpisałeś?)timingi. Poza tym -jak wspomniałem wcześniej- ntimings PODAJE BŁĘDNE TIMINGI.
-
Hej! Panowie-co do Vmoda-podałem go do Leadteka A6600TD,da się go wykorzystać do A6200 Leadteka-czywiście AGP.Sprawdziłem-działa. Co do Asusa -da się zrobić vmoda,ale niestety wiąże się to z wlutowaniem zmiennego rezystora( 10 K),w nóżki układu APW7063 (nóżka 4 i 6 odpowiednio- Feedback,Ground-uziemienie -ground- mozna podłączyć do czarnego przwodu wtyczki molexa zamiast to 6 pinu układu PWM).Wyregulowaniem ręcznie napięcia(regulując R zmiennego rezystora,i sprawdzając V woltomierzem. Także jest z tym troche zachodu-i przyda się doświadczenie z lutownicą. Co do V moda Leadteka-pamięci bardzo się grzeją,moje lecą na 740 tylko po zmianie timingów-ale to i tak raczej dla sportu,bo wydajności to niewiele daje.Trzeba mnieć dobre-dość wysokie -radiatory na nich,żeby je dovoltowywać i kręcić powyżej 740-co juz powinno być odzczuwalne. A o GPU nie ma się co martwić,Leadtek stosuje to samo chłodzenie co w wer.GT.
-
Realizm,to nie tylko jeden strzał i po kliencie-bo to jest w wielu grach(np.CS).A zwalnianie pojazdów-raczej błąd.Generalnie chodzi o pokazanie,jak to w rzeczywistości jest jak np. wróg ma przewagę liczebną,co znaczy szybki ,niespodziewany rajd czołgów wroga,ile znaczy wsparcie powietrzne,i co tak naprawdę można zdziałać w pojedynkę(bo w rzeczywistości nic), gdyby twórcy posunęli się jeszcze dalej-nie dało by się już grać.Podobnie jest już w Battelfield. Ja we OF/Resistance grałem dawno(i już nie gram),w Resistance jest polepszona grafika,fizyka,AI-także nie wygląda jeszcze żle-nawet jak na dzisiejsze czasy.Co do AmericasArmy-to jest realizm przez duże R,dopracowanych jest wiele szczegółow, które przeciętnemu graczowi umykają np.zbaczanie na prawo pocisku z granatnika,sposób przeładowywania broni i wiele innych.Zresztą Secret Service-służba ochrony Białego Domu,używa tej gry -pomocniczo-do treningów ,oczywiście w zmienionej formie.AA i Flashpoint,to dwie różne gry,róznie rozkładają akcenty realizmu.Natomiast wszelkie serie battelfield-są efektowne ale NIErealistyczne,choć wiele elementów jest dobrze /wiernie oddanych, a wiele innych jest -z nawet dobrym skutkiem- skopiowanych z AA i OF.Byłem w armii-nastrzelałem się(o dziwo) z wielu rodzajów broni(aż sam nie moglem uwierzyć),nabiegałem,i mam porównanie.
-
Wiesz , Flashpoint jest specyficzny i co tu dużo gadać dość trudny.W zasadzie po wyłączeniu wszystkich ułatwień,mógłby służyć jako wojskowy trenażer(zresztą w jakiejś armii jest w do tego wykorzystywany,ale już nie pamiętam w której).Nie każdemu odpowiada tryb "nagła smierć" po "spotkaniu" kuli przeciwnika, i zakończenie misji-lepiej mieć pasek energii i apteczke "za rogiem".A w Resistance jest przecież jeszcze trudniej.Wielu ludzi w to gra,ale nie w sieci,gra dla w trybie pojedyńczego gracza jest przecież całkiem przyjemna,ja szczerze powiedziawszy nigdy nie odczułem jakiejś szczególnej chęci do gry on-line.Pobawilem się edytorem,sciągałem dodatki(pojazdy itp.) i tyle.A COD 2 ?Mnie klimaty II w.ś. nie odpawiadają za bardzo,ile razy można lądować w Normandii ?Counter-Strike?Dobry trening przed AmericasArmy-takie jakby przedszkole.BF2 ?Efektowny i nawet niezły, ale dla tych którzy liczą na realizm,zbyt arcadowy i drażniący swoimi uproszczeniami.Niedługo(?) będzie Flashpoint 2-zobaczymy co zaoferuje.A Flashpoint to klasyka.
-
Witam ponownie Tak,musisz zamalować ołówkiem te rezystory,sa bardzo małe, więc trzeba to zrobić precyzyjnie-po prostu zamalowywujesz go,od lutu do przeciwległego lutu,jak bedziesz miał miernik to WPRAWA sama przyjdzie.Zamalowanie-pomiar,ponowne zamalowanie-ponowny pomiar(jesli nie idzie zbijanie R to maluj po bokach rezystora -szczególnie R84).Dojdziesz do tej rezystancji która Cię interesuje i "jesteś w domu".Jeżeli rezystancja bedzie zbyt niska(np.500 Ohmów)wtedy trzeba ZEBRAĆ nadmiar grafitu najlepiej wykałaczką,lub zapałką(ostro zakończoną) i zmierzyć "R".Problem może być z R84, ponieważ trudno zbić jego już i tak niską "R",ale da się. Nadmir grafitu wydmuchaj-oczywiście na zewnątrz karty,żeby wykluczyć jakiejś zwarcie.(głupio by wyszło) :blink: .Wbrew pozoromjest to BARDZO proste,trzeba być precyzyjnym,i ostrożnym.Najlepsze jest to,że nawet po V-modzie ,w zasadzie NICZYM nie ryzykujesz,ponieważ zarówno GPU jak i VRAM będą pracować w/g swoich specyfikacji(np.GPU 1,4V tak jak w GT,DDR-2,8V)wszystko to przy założeniu,że nie przesadzisz i nie dowalisz od razu 1,55V i 3,2V .W Leadteku-rdzeń ma zaniżone napięcie,a pamięć podobnie jak zwykłe moduły DDR do kompów mogą pracować z napięciami 2,5-2,8V(zresztą zobacz jak masz opisane swoje moduły) +/-0.1V. Miałem trochę wolnego-i w zasadzie przez przypadek zajrzałem na to Forum,od jutra do pracy- więc będe mial mniej czasu na [ciach!]ły,ale zajrze.Hejka! PS-Jakbym kupował teraz karte i nie żal mi by było wydać 2500PLN, to brałbym X1800XT/XL zamiast 7800GTX/GT/GS.(ale x1300Pro już nie)
-
Historia z FX-sami sie juz nie powtórzy,karty NV są naprawdę niezłe,ale nowe seria X1000 jest po prostu bardziej przemyślana, umożliwia np.korzystanie FSAA przy włączonym HDR(w standardzie OpenEXR)co kartach NV jest niemożliwe, można też korzystać z tzw. MRT -odroczonego cieniowania- również przy odpalonym FSAA.Jak nietrudno zgadnąć, tego produkty nv również nie potrafią. Ale jest to problem posiadaczy 6800/7800.-zresztą połowiczny, bo HDR to mało która karta ciągnie z zadowalającym FPSem. Jeżeli masz Leadteka A6600TD to mod ołówkowy jest bardzo prosty V-DDR mod->zlokalizuj układ APL1581(prawy górny róg po stonie GPU)pod nim jest rezystor R84,jego rezystancja wynosi 90ohm.teraz za pomocą ołówka -ale jak najbardziej miękkiego(np.7B może być za twardy)musisz zmniejszyć jego rezystancję o 5-6 Ohm(nie więcej!).Standardowe V modułów na Leadteku wynosi 2.6V.Ale MUSISZ mieć miernik-inaczej nie sprawdzisz czy obniżyłeś rezystancję! V-GPU mod-znajdż układ ISL6549CB(po przeciwnej stronie GPU).Pod układem ,jest grupa 4 rezystorów."Zainteresuj" się R510-jego rezystancja wynosi 600Ohm.Domyślne napiecie dla GPU=1,33V.I teraz zmniejsz ołówkiem jego rezystancję -KAŻDE 10 (dziesięć)Ohmów MNIEJ to 0.03V więcej na rdzeniu.Czyli 590=1.36V,580=1,39V,570=1,42V Ja mam obecnie 1,378V na rdzeniu=475MHZ na orginalnym biosie(przedtem 430max) Napięcia mierzyłem miernikiem,żeby nie było niedomówień-ale jak zmierzyć napięcia? Musisz mi uwierzyć na słowo-bo musialbym zrobić zdjęcia punktów pomiaru -a w tej chwili nie mam jak.Ale miernik MUSISZ mieć, do zmierzenia rezystancji R510 po zamalowaniu go ołówkiem!Inaczej możesz dowalić np.1.55V!(masz pentagrama-ale ryzyko uszkodzenia GPU jest).Baw się dobrze i daj zanć jak postępy!
-
Spojrzałem na sygnaturkę...i już wiem ,że jest :D ale zuważ ,że gra wymaga wysokiego zegara CPU -na zwykłym Athlonie (bez OC) xxx+ juz nie jest tak różowo.Z drugiej strony,dzisiejsze potworki graficzne to co innego. Ale mam dla Ciebie inne wyzwanie:Lock ON Modern Air Combat-upieram się że powyżej 33FPS to nie wyjdziesz-a może się mylę? :D A z aktualnymi configuracjami jestem na bieżąco(od czasów zx spectrum zresztą),po prostu rzadko gram(a we Flasha to już bardzo dawno).Pozdro!
-
ehh panowie.X . vs. PS3? Nie chcę wchodzic w wasze wzajemne uszczypliwści,więc odnose się do konsol. Która lepsza?Technicznie są porównywalne- z przewagą PS3. Ściślej mówiąc ,obydwie mają KIEPSKIE,WOLNE wielordzeniowe CPU.Działy marketingu ogłaszaja wszem i wobec jakie to są cuda, i ile to TFLOP-ów mają(Xenon 1 a PS3 2).Podczas gdy w rzeczywistości te liczby odnoszą się do mocy obliczeniowej całej konsoli(GPU+CPU).A co to oznacza?NIC.Operacje zmiennoprzecinkowe (Floating Point Per Second)równie dobrze moga oznaczać dodawanie dwóch liczb(ułamków) ,a 1-2 TFLOPy to SZCZYTOWA moc obliczeniowa ,przy założeniu ,że kod programu rozłożony jest IDEALNIE na wszystkie rdzenie-przewidywanie rozgałęzień działa idealnie,nie ma żadnych błedów w pamięci podręcznej.Brzmi jak bajka.Widział ktoś kiedyś idealny kod? Xbox360 POCZĄTKOWO bedzie wykorzystywał 1 rdzeń(jeden) mogący realizować 2 wątki,pozostałe 2 rdzenie zarezerwowane zostaną dla grafiki.Jest to dobre rozwiązanie,dzisiejsze ,a nawet przyszłe gry NIE WYMAGAJĄ wielowątkowości.Z powodzeniem wystarczyłby jeden CPU.Co do procesora Cell-tu jest jeszcze gorzej, CPU ma tylko jeden rdzeń ogólnego zastosowania(Xbox ma 3),plus kilka tzw.SPE.Problem w tym że developerzy nie mogą z nich korzystać w wielu przypadkach,nie wspominam już o tym ,że ich liczba ciągle się zmienia,miało być 8 SPE ,później okazalo się, że jednego na pewno nie da się wykorzystać,teraz znowu coś "przebąkują" że bedzie ich mniej... Czy w takim razie konsole bedą wykorzystywać w PEŁNI wielowątkowość?Ależ oczywiście że będą ...następcy PS3 i Xbox360. Trudności programowania-PS3 jest znacznie trudniejsza w programowaniu,ale to bedzie przeszkodą tylko na poczatku. ENGINE gry pisze się latami(2-3lata),więc na prawdziwy pokaz możliwości konsol, poczekacie jeszcze z 2 do 3 lat.Za 4-5 lat może być już naprawdę nieżle(a już szczególnie na PC z DirectX10). Procesory graficzne-uff,tu jest już naprawdę nieźle ,obydwie wykorzystują możliwości directX9c,w zasadzie nie ma co tu pisać(bo zajeło by to kilka stron)-potężne maszynki-kto widzial np.dema techniczne nvidii np.Luna,bądź dema ATI ten już wie jaki poziom graficzny bedą prezentować nowe gry-oczywiście niekoniecznie na początku życia konsoli. Piętą achillesową PS3 jest stosunkowo trudne(czyli drogie) programowanie, a konsola SEGA Saturn zniknęla MIĘDZY INNYMI przez to ,że developerom sprawiało wiele trudności programowanie 2 procesorow ,zamiast jednego jak w PSX one.Potencjał marketingowy Sony jest tak duży,że PS3 oczywiście nie grozi zniknięcie,ale liderem może nie zostać. Xbox360?Ma świetne dev-kity,latwiej się programuje,lecz w dluższyma okresie czasu przewagę może uzyskać Sony. Podsumowując-koszt przygotowania ENGINU gry jest tak duży ,że duża część tytulów na PS3/Xpudło bedzie korzystać -na licencji-z IDENTYCZNYCH silników np.Unreal Engine 3,Cry Engine 2,także szczegóły techniczne bedą mało ważne-wiekszość gier będzie wyglądać TAK SAMO na obydwu platformach.Wygra ten ,kto bedzie miał LEPSZE tytuły ,a nie lepszą konsolę/technologię.
-
Witam! Przyłacze się chwilowo do tej dysputy.Mam jedną uwage-działy MARKETINGU robią ludziom wodę z mózgów,to tak naprawde nie ma znaczenia ,że PS3 bedzie miał czytnik Blu-Ray a Xpudło 360 tylko HD-DVD i to tylko do filmów.Sony od 3 lat przynosi straty,dla niej konsola PS3 ,to w zasadzie byc albo nie być.Poza tym Microsoft i Sony stoją po przeciwnej stronie w wojnie FORMATÓW nowej generacji(BluR vs.HDDVD),i wykorzystują każdą okazję przy ogłosić światu ,że prowadza w tym wyścigu(na razie jest remis).Problem w tym ,że koszt przejscia na format BR są ogromne-bowiem potrzebne są nowe linie produkcyjne.W przypadku HD-DVD to nie wchodzi w grę,ponieważ technologia/produkcja jest podobnaa do zwykłych DVD. Czy gry bedą zajmować kilkanascie GB?Tak... za 5 lat. Raczej nie należy przejmować się pojemnością DVD(choć developerzy narzekali troche). W przypadku Xbox i PS2 -w chwili startu miały zwykłe DVD i poziom/jakość gier w ciągu kilku lat podnosiła się znacząco,ale ich objętość na nośniku już nie,za to szybko objawiły się niedostatki RAM-u (szczególnie PS2). Objetość gier pewnie bedzie znacząco większa niż,w starszej generacji,ale istnieje istnieje cos takiego jak kompresja(jak ktoś też słusznie zauważył),i przynajmniej te kiepskie CPU,bedą miały dodatkowe zadanie dla jednego ze swoich rdzeni. A Sony ?Będzie wypuszczać gry na Blu-Ray,które równie dobrze będą mieścić się na DVD-DL,ale kto to bedzie sprawdzał jak już BĘDZIE PS3 i rozpocznie się wojna X. vs Sony? Wojna bedzie na tytuły,a nośnik to raczej drugorzędna sprawa-chyba że ktoś JUŻ ma HighDefinition TV,na półce czeka masa filmów HD-DVD/BlRay...
-
Wiam Ehh panowie-ja we flashpointa grałem na Quadro DCC(GF3Ti 500 240/520)+Athlon 1.700+i śmigała ,że aż miło.W wersje Platinium grałem na GF4Ti 300/575 +A.XP 2400+ ,z FSAA x2 i ...nieżle,a w zasadzie swietnie.Problem może leżeć po stronie sterowników NV,i na stery bym stawiał. Jak słusznie ktos zauważył,NIE MA sprzętu który by pociągnął Resistance na full detalach(max.zasięg widoczności).Jest to po czesci wina starego silnika (nie korzysta z shaderów). Co do Realizmu -bylem w armii(w kawalerii powietrznej),poza tym troche interesuję się wojskiem ,i wiem jedno-Flashpoint,obok Americas Army to najbardziej realistyczne obecnie gry.BF2 to kupa śmiechu-jesli chodzi o realizm.Nie chce mi się przytaczać szczegółów,ale jak temat się rozwinie to może coś naskrobie.Pozdro!
-
Myślę ,że HL2 nie jest odpowiednim tytułem do porównania tych kart,ale słusznie zauważyłeś ,że w FEAR może byc inaczej.Otóż tak .W FEAR FX -y to porażka w trybie DX9.Akurat kumpel posiadał do niedawna 5900XT więc sprawdzał-i niestety... poziom niegrywalny(wDX9c).Co prawda, sprawdzał na demie które jest mocno NIEzoptymalizowane ,ale to nie zmienia faktu ,że o FX trzeba jak najszybciej zapomnieć(tak jak to zrobiła NV).Inna sprawa ,że silnik tej gry do najwspanialszych nie należy. Co do timingow -proponuje sprawdzić te których używam obecnie,szczegolnie mogą się one przydać szczęśliwym posiadaczom wer.256MB(4ns),ale wszystkim innym którzy jadą na Hynixach również Leadtek(Timing Set 1) NV_PFB_TIMING0 : 060c1612 NV_PFB_TIMING1 : 05010406 NV_PFB_TIMING2 : 20240406 A te są jeszcze trochę bardziej poluzowane(odpowiadaja timingom dla pamięci 2,8ns) NV_PFB_TIMING0 : 060E1814 NV_PFB_TIMING1 : 05010406 NV_PFB_TIMING2 : 20240406 Zmienić w Nibitorze należy oczywiście TYLKO Timing Set 1 co oczywiste(w A6600TD).Ale w drugim przypadku może sie okazać ,że bez dovoltowania pamięci(i założenia radiatorów)się nie obejdzie. Co do niemożności wyedytowania CL(opóznienia adresownia kolumny)to Hex editorem MOŻE by się udalo znależc odpowiednie wartości,a może nie..chyba szkoda na to czasu.Dovoltowanie powinno załatwic sprawę. nTimings nieprawidlowo podaje wartości timingow.Milej zabawy for All :D Aa i jeszcze jedno-nowe karty ATI są faktycznie lepiej przygotowane do dx9c-ale machina marketingowa NV i wcale nienjgorsze karty tejże firmy raczej to zniwelują. :icon_exclaim:
-
@Marzinho te karty( rozni tylko Direct - 5900xt ma 9.0B a 6600 ma 9.0C na który jest troche za slaby moim (i nie tylko chyba) zdaniem, a osiagi pozostaly te same, obie karty po o/c maja w 3dMark03 po ok 7100-7200 pkt. (średnio i nie po v-modach) Tylko DirectX ?Czy aż DX :) ? Osiągi pozostały te same? Wez pod uwagę ,że 3dmark 03 to tak naprawdę benchmark dx8.1 z JEDNYM testem dx9 do tego pixel shadery zostały użyte tylko do cieniowania wody i nieba.Reszta cieniowana jest za pomocą shaderów v.1.1(1.4).W 3dmarku 05 jest już zgoła inna sytuacja-WSZYSTKIE testy korzystają z Pixel/Vertex shaderów v.2.0 i tutaj dopiero ukazuje się słabość FX-ów.Są koszmarnie wolne gdy realizują kod shaderowy z 32bitowa precyzją,i w ogóle nie radzą sobie z kodem skompilowanym np.za pomocą kompilatora microsoftu(HLSL).Na FX ,w dx9 ,nie da się już w nic nowego zagrać.6600 ma "zaledwie" 3x szybsze Pixel Shadery.Vertex Sadery mają identyczną wydajność. A co do dx9c-to można by jeszcze dużo napisać c zy 6xxx/7xxx są za słabe... Pozdro