Skocz do zawartości

BezbronnyPL

Stały użytkownik
  • Postów

    754
  • Dołączył

  • Ostatnia wizyta

Treść opublikowana przez BezbronnyPL

  1. BezbronnyPL

    ATI Radeon X1600

    @Focus Wszystko to napisałes jest prawdą.Panowie z Beyond3D maja oczywiście bardziej złożone stanowisko i gdyby ściśle trzymać się definicji potoku renderującego ,to trudno(łatwo?) określić ilość potoków,bo faktycznie PIXEL UNIT potokiem nie jest.Jednocześnie w dalszym ciągu nikt nie określa kart np.7800 kartami 16 potokowymi.Myślę, że jest częściowo robota speców od marketingu,albo wygląda na to ,że trzeba zdefiniować pojęcie potoku renderującego od nowa.Zresztą przyszłość -dalsza lub bliższa-to zunifikowane jednostki cieniujące.Przykład?Najnowszy Xbox(360) ,jak określić tam ilość potoków?Podawana wartość 48,to połączone pixel i vertex shadery .SONY nie podaje ilości potoków dla PlayStation3 głównie ze względów marketingowych, układ NV który znajdzie się w tej konsoli ma bardziej tradycyjną budowę i zdecydowana większość ludzi(fanów konsol,lub nie znających się ,nie interesujących się budową GPU osób) mniejszą liczbę potoków w RSX playstation3 niż w 360tce, mogłaby odebrać jako gorsze technologicznie/wydajnościowo rozwiązanie.A to byłby dla działu marketingu Sony raczej ciężki orzech do zgryzienia.Oczywiście do premiery PS3 jeszcze dużo czasu i wiele(?)może się zmienić. Co do Rivy Tuner-trudno posądzać twórcę o konszachty z NV .Zwłaszcza ,że lista błedów jest wymieniana w relase notes każdej wersji.A niewykrywnie czegoś poprawnie?Często jest to winą błedu w sterownikach.Unwinder wielokrotnie odpowiada na posty o błedach w rivie,zwracając uwagę ,że to spece z ATI czy NV zrobili błąd nie on-sprawdź na forum Guru3D.To ,że niektórzy redaktorzy (np.na benchark.pl)robią wielkie halo o ilości potoków-sugerując się danymi z RT,i robiąc ATI antyreklamę, to raczej wina ich niekompetencji a nie Unwidera. Zresztą programik nie jest powszechnie uznanym standardem, tylko projektem jednoosobowym stworzonym dla maniaków 3d,szukających wygody,ukrytych opcji ,dodatkowej funkcjonalności(jak moduł "benchmark" w Statistics Serwer RT-niemający wpływu na wydajność jak popularny Fraps itp.). ------------------------------------------------------------------------------------------------------------------------------- Wracając do X1600,z wstępnych testów wynika ,że założenia inżynierów nie do końca się sprawdziły.Karta demonem szybkosci nie jest i sadząc po ostatnich obniżkach tych kart, ATI już zdaje sobie w pełni z tego sprawę.Faktem jest ,że w przyszłych(częsiowo w dzisiejszych) grach szybkość oraz ilość pixel shaderów bedzie miała kluczowe znaczenie,i może się okazać,że za rok x1600 to już taki zły nie będzie.Wystarczy wspomnieć ,że karty X1000 dużo lepiej radzą sobie z długimi programami shaderowymi V3(z przewidywaniem pętli i rozgałezień),gdzie karty NV raczej niespecjalnie sobie radzą.W tej chwili zaawansowanie funkcje shader model v.3 są rzadko wykorzystywane i x1600(1800)raczej nie ma się czym wykazać.Byc może najnowszy 3dmark trochę rozjaśni obraz,twórcy zapowiadaja maxymalne obciążenie pixel shaderów(miedzy inymi).Tylko kupujący chcą mieć wydajna kartę juz dziś...
  2. BezbronnyPL

    Geforce 6600 / Gt

    Mój bład nie zwróciłem ,uwagi że to wer.GT.Galaxy oferuje 3 karty z Zalmanem.Generalnie karta świetna-i godna polecenia(przynajmniej zaoszczędzisz na Zalmanie).Pytanie tylko czy układ PWM pozwoli na płynną regulację prędkości wiatraka(ach ta cisza) ,czy też obsługuje tylko 2 stany- on/off.
  3. BezbronnyPL

    Geforce 6600 / Gt

    Co rozumiesz przez "zgłasza się jakoPCI-E"?Tak wyświetla się w czasie bootowania?Bo jeśli tak,to równie dobrze możesz sobie wyedytować BIOS i wpisac "jestem sobie dżi fors".Bios od wer.PCI-E nie ma prawa działać na AGP,jeżeli np.Riva tuner wyświetla ,że karta działa w trybie AGPx8 ,to znaczy ,że wszystko ok.Druga możliwość to tryb PCI-ale nie podejrzewam ,że nie zainstalowałeś sterów od płyty... 6200/6600 nie posiada tabeli napięć więc niczego w nibitorze nie zmienisz.Lepiej wyślij mi na maila ten bios od tego 6600 GO GT(???) bo coś dziwnie to wygląda.
  4. W/g statystyk podanych na jakiejś stronce (już niestety nie pamiętam jakiej), zaledwie 7% gospodarstw domowych w USA posiada telewizor HD.Także aż tak dobrze to nie jest-sam się zdziwiłem(dane mialy m-c lub dwa).
  5. BezbronnyPL

    Geforce 6600 / Gt

    Rozumiem że uzywałeś najnowszego nibitora (w.wer.2,6).6600 go to chipy używane w laptopach,mają obnizony pobór mocy.Ale GT?Dziwne-w notkach wystepują zwykłe 6600 ,nie ma podziału na GT i standart.Teoretycznie mogłbyś przeflashować kartę innym BIOS-em ale szczerze powiedziawszy karta powinna dobrze działać na standartowym,i byłoby b.dziwne gdyby zaczęła poprawnie pracować na innym(od innego producenta).Jezeli masz- w razie czego- kartę PCI-to możesz spróbować,jeżeli nie-to też jedynie przywrócenie orginalnego BIOSu bedzie trochę trudniejsze. Na Twoim miejscu ,sprawdziłbym kartę na innym kompie,jeżeli sytuacja się powtórzy,to reklamuj kartę,nie jesteś od tego żeby ją naprawiać- ma działać po wyjęciu z pudełka i to niezależnie od producenta.
  6. BezbronnyPL

    Geforce 6600 / Gt

    Na tym Galaxy BEZNADZIEJNIE podkręcają się pamieci-zresztą poszukaj na tym forum.
  7. BezbronnyPL

    Geforce 6600 / Gt

    Chyba wyrażnie napisałem ,że Nibitor to potrafi.Mam na myśli zmiane "w locie" i przetestowanie bez flashowania(.Co do ntimings to już kiedyś pisałem ze nieprawidłowo rozpoznaje/odczytuje timingi. Ten programik nadawał się do starszych kart. Nibitor-File open->bios->timings->autoselect timings->test timings->get timings->wpisujesz inne->set timings. To by było na tyle...
  8. BezbronnyPL

    ATI Radeon X1600

    Nie wiem po co te dywagacje-strone wczesniej już Focus pisał jak to jest. Zresztą specyfikacja X1600 była już znana z chwilą premiery,kart x1000 i nie była żadną tajemnicą-pomimo, że seria x1600 dopiero teraz pokazuje sie w sklepach. Wiec jeszcze raz-12 potoków pikseli,5 potoków geometrii,4 TMU,4 ROP Jeżeli szukacie info na benchmark.pl to nie dziwne, że takie domysły się pojawiają. Artykuł z pazdziernika!-http://www.anandtech.com/video/showdoc.aspx?i=2552&p=2
  9. BezbronnyPL

    Geforce 6600 / Gt

    Nibitor (teraz w wer.2,6-mniam).Do pobrania z 1818400[/snapback] Podejrzewam ,że to raczej nie jest wina sterów ani biosu, bo jakieś dwa tygodnie temu wszystko był ok. A od tamtej pory nic nie zmieniałem:( No takiej odpowiedzi to sie nie spodziewałem.Odinstaluj stery,następnie za pomocą Drive Cleane-ra usuń jego pozostałości(najpierw pliki Cab).Pozbadź się innych programów do OC(w szczegolności jakieś V-tuner itp. badziewia).Zostaw RiveTuner-jeśli używasz tego programiku.Z tego co napisąłe s jest tp problem softwarowy więc może byc cieżko znaleźć przyczynę.
  10. BezbronnyPL

    ATI Radeon X1600

    Z wszystkim sie zgodze oprócz tego.Co jak co, ale wśród rozmaitych twórców różnych programów do tweakowania ,Unwider wyróżnia się ogromną wiedzą (głównie związaną z kartami NV).Wystarczy przeczytać readme,by przekonac się, że udostepniane są mu różne karty,dopiero wtedy można założyć,że info podawane przez RT jest wiarygodne.Zresztą twórca rivy wielokrotnie zwraca uwagę, że nie dysponując konkretną kartą nie może podać jakijś informacji.Nikt nie wie wszystkiego,a kolejne wer.RT zostaną z pewnościaą skorygowane.A co do tych nieszczęsnych potoków ,myślę że najlepiej przyjąć wersję Beyond3D,w przypadku gdy liczba jednostek Pixel shader jest różna od ilości ROP,w dalszym ciągu karta jest określana jako 8(GF6600/4ROP) cz 24(7800GTX/16ROP)potokowa,z tym,że potoki te określane są jako WEWNĘTRZNE.Co jest logiczne,gdyż fizycznie karta posiada te potoki,jedynie nie są zestawone 1:1 z ROPami(co jak wiadomo niespecjalnie jest wadą-szczególnie w 7800). Zresztą z ostatnich informacji o następnym układzie ATI,ten ma mieć znacznie większą liczbę potoków pikseli niż ROP. Pozdro.
  11. BezbronnyPL

    Geforce 6600 / Gt

    Tak realne .Twój CPU to nie demon predkości a w kombinacji z niezbyt wydajną MoBo, i np. słabo podkreconymi pamięciami grafiki ,to może się tak objawiać.Kiedys sprawdzałem,ustawienia np.550/600 i z tak wolno ustawionymi pamieciami realnego przyrostu to raczej nie było(w kilku demkach w których sparawdzałem).Za to na 450/740 już wszystko wrociło do normy-zauważalny wzrost wydajności w tych samych demkach.
  12. BezbronnyPL

    Geforce 6600 / Gt

    Tak jest -jakbyś poszukał to byś znalazł.Ale ponieważ nie znalazłes (bo nieszukałeś) to podaję-Riva Tuner->Hardware monitoring->Setup ->Plugins->zaznaczasz NVThermalDiode.dll i wszystko(przynajmniej jesli chodzi o diode termiczną).Można jeszcze właczyc wyświetlanie temp.w Trayu i np. czasie gry.Prawy myszy na wykresie CORE TEMPERATURE->setup->zaznaczamy Show core temp.in tray icon oraz Show...in on-screen display. A prędkości wiatraka nie zmienisz-jeżeli w Rivie ustawiasz np.50% a suwak od razu idzie na 25%,oznacza to, że układ PWM na karcie obsługuje tylko 2 stany Wł/Wył- i nic z tym nie zrobisz,nie będzie regulacji. Dziwne,nawet bardzo.Wygląda całkiem jak zabezpieczenie przed OC.Mogłoby pomóc wyłaczenie testu w Rivie Tuner(wyłączy testowanie GPU/VRAMu przez sterownik )ale generalnie jest to bardzo zły pomysł(to w dużym skrócie zabezpieczenie przed uszkodzeniem sprzętu).Mozesz spróbować wyedytowac BIOS Nibitorem tzn.podbić nieznacznie zegary np.do 525/ 1050) i zobaczyc jak na to zareaguje-a powinna dzialać na bank po takim mikro OC,być może wtedy próbować obiżac/podwyzszać zegary.A może wgraj jakijś starszy BIOS do tej grafiki.
  13. BezbronnyPL

    Gf6600gt Pci-e Na Quaddro

    Po pierwsze najpierw sprawdź jaką masz wersję 6600GT tzn.Rev.A2-czy A4 ,jeżeli A4 to możesz zapomnieć o modzie na quadro.
  14. BezbronnyPL

    Geforce 6600 / Gt

    5900 niesamowitą kartą?Hmm...GF6600 w dx9 jest o ok.2x szybszy bez OC. 4 potokowy 5900 nie byłby taki zły, gdyby nie dramatycznie słaba wydajność Pixel Shaderów v.2.0.Pomijając już ilość potoków,to dobiło tą kartę. A poczytaj posty od str.120 wzwyż ,to juz będziesz wiedział co i jak.
  15. BezbronnyPL

    Geforce 6600 / Gt

    A jaka masz płytę?KT333/400/600,nForce inne? Zasilacz w zasadzie można wykluczyć-6600 obciąża zasilacz na ok.35W ,a po solidnym OC z vmodem ok.45W, także w zasadzie bardzo mało.Karty bez dodatkowego zasilania(bez wtyczki molex)obciążają PSU na ok.25W,tyle ile jest w stanie zapewnić port AGP(nie AGP Pro).Przeczyść system(rejetr),załaduj najnowsze stery do Mobo,karty grafiki.Być może ,jeśli masz płytę na chipsecie VIA bedziesz musial wyłączyć AGP Master 1WS Read/Write (disabled),oraz PCI Delay Transaction . Wyłacz też- Video RAM shadow (czyli disabled) Video BIOS Cacheble j.w Video RAM Cacheble j.w. AGP Spread Spectrum j.w. Te 4 opcje powinny być wyłączone domyślnie w praktycznie każdym kompie.
  16. BezbronnyPL

    Geforce 6600 / Gt

    A probowałeś chociaż zmienić timingi?Bo widze ,że nie-, zadajesz te same pytania-jakbyś sprawdził to byś wiedział,że akurat timingi nieżle wpływają na OC,a juz na pewno na stabilność(radiatory na memki to podstawa).Wystarczy, że je wpiszesz Nibitorem-zakladka timings->autoselect timings->test timings->wpisujesz timingi->set timings->SPRAWDZASZ-ibez flashowania karty bedziesz wiedział czy akurat Tobie coś dadzą ?.Nie chce juz mi się pisac w kółko o tym samym-bo to już staje się nudne.
  17. BezbronnyPL

    Geforce 6600 / Gt

    Też mnie zdziwiło ,że pomimo odpalenia dodatkowej zasiłki dalej nic sie nie dzieje,ale weź pod uwage ,że Leadtek Srongmena pracuje na bardzo wysokim napięciu ,a i CPU też nie jest na defaultowym.Jedyne co pozostaje to sprawdzić innej zasiłce-ale w standardzie ATX 2.0(minimum taki jakt Twój Chieftec GPSxxx,zresztą mam ten sam -jest całkiem przyzwoity) a najlepiej jakimś 400W Taganie,Antec-,ku ,Topawer-po prostu na PSU z wyższej półki.Bo ten dodatkowy podłączany przez Strongmena to mógł być jakijś zarżnięty codengen lub MGB itp.Być może padło zasilanie na karcie graficznej(któryś z mosfetów),a może problem jest gdzie indziej?Hmm
  18. BezbronnyPL

    Geforce 6600 / Gt

    Wg. mnie to moze być wina zasiłki-ponieważ CPU zasilany jest z linii 12V podobnie jak Twój 6200(to jeszcze 6200? :D ) Solidnie krecisz CPU-a przy tym napięciu(CPU) pobierany prąd jest b.duzy.Ten Chieftec-jak się domyślam- pewnie jest w specyfikacji ATX 1,3(lub niby ATX 2.0 z dodaną tylko wtyczką 24 pin),co oznacza ,że ma słabą linie 12V .Weź pod uwagę że uklady zasilania(stbilizatory napiecia ,kondensatory) na GF6200 są troche wycięte,przez co b.obciążają zasilacz.Oczywiście nie tłumaczy to dlaczego podpięty dodatkowy PSU nie rozwiązał problemu,ale mozesz spróbować odłaczyć dodatkowe zasilanie karty, sprawdzić co się stanie, i do ilu w ogóle sie podkręci bez niego(odciążysz linie 12V).Mialem Chiefa HPC 420-302DF i szybko się go pozbyłem-żadna rewelacja.
  19. BezbronnyPL

    Geforce 6600 / Gt

    450 na rdzeniu to w zasadzie wystarczy-ale te pamieci to bardzo kiepsko idą-poczytaj na str.124 co i jak z ołowkiem,biosów 1,4V nie ma na wer.256MB -ale ołowkiem możesz powalczyć.Ewentualnie wgraj bios od Sparkla 6600 256MB+zmiana timigow i powinno byc ok.
  20. BezbronnyPL

    Geforce 6600 / Gt

    Nie wiem jak go zmodowałeś skoro winfox krzyczy-sprawdź w nibitorze czy czasem nie zmienił się Device ID-zakładka ADV.Info. Proponuje zrobić jeszcze jedną kopię biosu,jeszcze raz ja zmodować i spróbować wgrać.Jaki BIOS powinieneś wrzucić?Ja bym modował orginalny i tyle-potem ołówek i jazda.
  21. BezbronnyPL

    Ati Radeon 9700

    Oki-zgoda-przesadziłem.
  22. Testy działają w pętli-więc dopóki nie naciśniesz bodajże ESC to Twoja cierpliwość zostanie wystawiona na ciężką próbę... Wystarczy kilka przebiegów(dla 100% pewności całą noc).
  23. BezbronnyPL

    Geforce 6600 / Gt

    Mój Leadtek ma standartowo w BIOSIE 425/650(500/740 po OC)- i co na to powiesz? Każdego 6600 można pogonić na 400Mhz na GPU.A spece od marketingu zaraz to wykorzystują sprzedając karty pod dumnymi nazwami(Turbo/Ultimate itp.),wiedząc ,że to przyciągnie klientów.
  24. BezbronnyPL

    Ati Radeon 9700

    Mam specyfikacje tych pamięci więc chyba jasne ,że wiem jakie to są moduły, to że Ci dzialają tak a nie inaczej to miej pretensje do producenta karty a nie do mnie.Dostałeś odpowiedź-więc po co ten komentarz.
  25. BezbronnyPL

    Ati Radeon 9700

    No i co z tego-to są dane producenta kości.To ze pamieci nie chcą sie podkręcac może oznaczać ,że prodcent zastosował ostrzejsze timingi niż zalecane,lub obnizył im napiecie.Nie osmieszaj sie-najpierw sprawdź zanim odpowiesz.
×
×
  • Dodaj nową pozycję...