silverato Opublikowano 4 Marca 2008 Zgłoś Opublikowano 4 Marca 2008 witam mam pytanie wiadomo ze seria gf 8XXX maja automatyczna ostrosc do ogladaniu filmów full hd to kompletna poraszka musiałem oddać nowego galaxy bo ostrosc na duzym ekranie była tragiczna czy tak samo jest z radeonami ??????? Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
atento Opublikowano 5 Marca 2008 Zgłoś Opublikowano 5 Marca 2008 (edytowane) na moje oko roznica w filmach jest widoczna na 3870 filmy wygladaja lepiej najbardziej roznice widac na slabo jakosciowo rmvb ,uzycie procesora jest mniejsze jak i jakosc filmow jest lepsza na 3870 w grach nie widze roznicy w jakosci a tylko przyrost fps w 8800gt wzgledem 3870 po podlaczeniu do tv 100hz 3870 sprawuje sie bardzo dobrze 8800 ma ciut gorszy kontrast jak i w ciemniejszych miejscach rozciaprana pikseloze w rmvb,avi czego nie widac tak w 3870.Ogolnie ogladam na tv 100hz bo obraz jest lepszy niz na nie jednym lcd full hd ;) e: mysle ze lcd tez ma duze znaczenie ;) mozliwe ze marnej jakosci stad kiepski obraz tak jak teraz patrze na lcd 17 crt 21 a tv 29 100hz najlepiej wyglada crt 21 w podzialce 1600-1200 95hz Edytowane 5 Marca 2008 przez atento Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Mario2k Opublikowano 5 Marca 2008 Zgłoś Opublikowano 5 Marca 2008 (edytowane) silverato Ty musiales cos miec spieprzone w tej karcie ,albo w codeckach . Owszem moim skromnym zdaniem ATI daje ciut lepszy sygnal HD na TV ale sa to minimalne roznice , nie zauwazalne przez wiekszosc ludzi . atento Do w miare dobrego momnitora CRT 21'' to mozna porownywac tylko najlepsze na rynku LCD a i tak w zastosowaniach Multimedialnych ,nie maja one szans . Edytowane 5 Marca 2008 przez Mario2k Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
silverato Opublikowano 22 Czerwca 2008 Zgłoś Opublikowano 22 Czerwca 2008 (edytowane) nic nie miałem spiep%$# <_< wszystkie gf8 i 9 nie mają ustawiania ostrosci Edytowane 22 Czerwca 2008 przez silverato Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
99tomcat Opublikowano 22 Czerwca 2008 Zgłoś Opublikowano 22 Czerwca 2008 (edytowane) nic nie miałem spiep%$# <_< wszystkie gf8 i 9 nie mają ustawiania ostrosciwiesz co albo to marna prowokacja albo lama jesteś i tyle- oczywiście różnice są ale nie rób sobie jaj zę na gf8 nie da sie obejrzeć filmu :lol2: Poza tym wywal te fotki z siga bo zaraz wapdnei wielki zły moderator i da ci ba(na)na w nagrode Edytowane 22 Czerwca 2008 przez 99tomcat Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
silverato Opublikowano 22 Czerwca 2008 Zgłoś Opublikowano 22 Czerwca 2008 B-) To nie prowokacja na 46 calach obraz jest rozmyty na 19 c tego nie widać za mały ekran,znajdz mi karte w której bede mógł sobie wyregulować ostrosc suwakiem to zamówie ją jeszcze dziś Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
SGJ Opublikowano 22 Czerwca 2008 Zgłoś Opublikowano 22 Czerwca 2008 Bo ostrosc video ustawia sie w odtwarzaczu/dekoderze video nie w sterownikach... Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
silverato Opublikowano 22 Czerwca 2008 Zgłoś Opublikowano 22 Czerwca 2008 sprawdzałem na gf9600 i 8800 i 8400 wszystkie puszczały mi metny obraz <_< najgorsze jest to ze pulpit tak samo metny zle sie pracuje (czyta) na takim ekranie mam 7600gt i jest ok opcja jest odblokowana ale raczej nie pogram w najnowsze gry ciekawy jestem czy w radeonach mozna sobie regulować w sterach ? rzeczywiscie znalazłem dziś w playerze taką opcje tylko czy bedzie to działac w 8800 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
satou Opublikowano 22 Czerwca 2008 Zgłoś Opublikowano 22 Czerwca 2008 o ostrosci decyduje sam telewizor , jakosc obrazu jest zalezna od sposobu w jaki przesylasz sygnal do TV ( HDMI czy Component , wiadomo ze ten pierwszy bedzie lepszy). poszukaj kart grafiki ze zlaczem HDMI jesli Ci zalezy na porzadnym obrazie na TV. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
zzizzy Opublikowano 23 Czerwca 2008 Zgłoś Opublikowano 23 Czerwca 2008 Jeżeli masz monitor LG, to ściągnij ForteManager i zsynchronizuj sygnał karty z monitorem (nie umiem tego ładnie napisać). U mnie rozsynchronizowanie powodowało rozmycie obrazu. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
fit Opublikowano 23 Czerwca 2008 Zgłoś Opublikowano 23 Czerwca 2008 jestem nieco zdziwiony - jezeli masz ekran z progresive scan to nie ma pojecia ostrosc przy odtwarzaniu z natywnya rozdzielczoscia - przy upscalingu ostrosc robi filtr codeca + ewentualnie video postprocess + ostatecznie elektronika w CRT, ergo material full hd puszczony na ekranie full hd nie moze byc nieostry - ale jak ktos puszcza ~dvix na full hd to zdaje sie na oprogramowanie do deblockingu/deinterlacingu... i wyglada to delikatnie mowiac obrzydliwie - kazdy CRT wygrywa wtedy fizyka tworzenia obrazu na siatkowce oka wniosek - material SD i nizej nie powinien byc puszczany na LCD :D (jak ktos nie wierzy niech zobaczy sobie mecz w HD i SD na LCD a potem ten sam mecz w SD na CRT) szkoda ze nie ma duzych CRT w full HD (ah FW900 co to byl za szal) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
silverato Opublikowano 5 Lutego 2009 Zgłoś Opublikowano 5 Lutego 2009 (edytowane) nie macie tego w nowych gf 8 ,9 , 280 :razz: Edytowane 5 Lutego 2009 przez silverato Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Art385 Opublikowano 5 Lutego 2009 Zgłoś Opublikowano 5 Lutego 2009 w GF8 nie ma wystrzania w reszcie jest. Ja zostaje przy Radku bo obraz po VGA ssie pałkę na 32 calach HD ready na GF, edge enhancment nic nie daje bo nie ma ostrości, człowiek robi się zły i w ogóle :) po DVI/HDMI sprawa jest zupełnie inna Materiał HD + egde enchacment i jest elegancko na szczęscie rzadko kto dziś uzywa VGA wiec to nie duży problem. Radki w materiale HD sprawują się bardzo podobnie, kontrasty, kolory szmery bajery ustawiamy sobie indywidualnie więc o nich się nie wypowiem ale nie żadko dobre ustawienie potrafi wyciągnąc z naszego TV znacznie więcej niż moglo by się wydawac że nasze stare LCD potrafi :D. Co do filmów silnie skompresowanych i xvidów, x264 no to tu Ati obojętnie czym połączone kopie tyłek nvidii bez dwóch zdań, obraz na krawędziach jest gładki, bloków jest znacznie mniej tak samo jak noise'u na Nvidii musimy użyć postprocessingu w ffd aby uzyskać podobny efekt a i tak obraz nie bedzie lepszy co najwyżej bardziej rozmyty jako przykład posłużylem się odcinkami Star Treka TNG od NiteShdw a to 170mb na 40 minut więc całkiem niezły test :) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
silverato Opublikowano 5 Lutego 2009 Zgłoś Opublikowano 5 Lutego 2009 łoooł w gf 9 i 280 jest ??????? nie mozliwe ?? które sterowniki model firma nazwa karty ? kupił bym Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Art385 Opublikowano 5 Lutego 2009 Zgłoś Opublikowano 5 Lutego 2009 Gf 9 nie miałem ale według changelog od sterowników Nvdii funkcjia wyostrzania obrazu jest dostępna na każdym Gf9 w wzwyż na 8 niestety nie :( Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
trymek Opublikowano 6 Lutego 2009 Zgłoś Opublikowano 6 Lutego 2009 Ja tylko dodam od siebie, że przynajmniej na CRT obraz w 2D jest do niczego na każdym modelu nvidii. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Huberek Opublikowano 6 Lutego 2009 Zgłoś Opublikowano 6 Lutego 2009 Zazdroszczę wam gałek ocznych xD Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Art385 Opublikowano 6 Lutego 2009 Zgłoś Opublikowano 6 Lutego 2009 (edytowane) Nie ma co zazdrościć jestem krótkowidzem :) Edytowane 6 Lutego 2009 przez Art385 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Wedelek Opublikowano 7 Lutego 2009 Zgłoś Opublikowano 7 Lutego 2009 Ja mam serię 9xxx. Konkretnie GF9600GT Golden Sample. Nie mam najnowszych sterów zainstalowanych, ale u mnie wygląda to tak Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
HeatheN Opublikowano 7 Lutego 2009 Zgłoś Opublikowano 7 Lutego 2009 Ludzie kolejny temat w którym mit ostrego ATI jest powielany.... Owszem za czasow Matroxa, g2 i Ati 9100 faktycznie g2mx odstawal....ale to byly czasy analoga i malych monitorow...dzis echem przeszłości nadal gdzies ktos próbuje coś forsować. Mam samsunga 19cali LCD 940BW na 8800gt przez dvi obraz wygladal dobrze, teraz zmienilem na ATi hd4870 i obraz wyglada dobrze, WRECZ IDENTYCZNIE. Moze to wina NT, moze wina mojego wzroku (zero wad, zadnych okularów) nie wiem czym beda to tlumaczyc ci zwolennicy ostrego ati... Zeby byc fair, przyznam jednak ze na 32"LCD Samsunga przez DVI obraz wyglada troszke lepiej na ATI w NIEKTORYCH FILMACH, nic nie ustawiam, nic nie grzebie i nie poprawiam defaultowe ustawienia kart...moze troszke mniej szumow i pixelozy przy slabych divixach ale moja zona np roznicy nie widzi...:) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Art385 Opublikowano 7 Lutego 2009 Zgłoś Opublikowano 7 Lutego 2009 ale to fakt po VGA wszystko rozchodzi się RAM DAC obraz jest gorszy na NV kiedys ATi chwaliło się 10bitowym RAM DAC NV milczało teraz RAM DAC nie ma znaczenia bo kto dziś używa VGA tak naprawde a na badziewnym monitorze Crt różnic nie widać za to już na porządnym widać gołym okiem. Na DVI różnic nie ma bo to co na karcie nie ma znaczenia a w multimediach nvidia ssie pałkę przy ATI niby wszystko ma a jednak nie do końca się z tego wywiązuje na geforcie musiałem non stop używać postprocessing w ffd bo wbudowany Denoise jest tragiczny za to edge enhacmnet działa ok na Ati zapomniałem co to jest post processing co do kolorów Ati wypuszcza ciemniejszy obraz po DVi przez co po podkręceniu kolorów obraz wydaje się soczystszy ale na GF można uzyskać podobny efekt po majstrowaniu z gammą. I to tyle, ta dyskusja jest zapóźniona o kilka lat :) z tą ostrością co do możliwości multimedialnych widzę jednomyślność :) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
saleen Opublikowano 7 Lutego 2009 Zgłoś Opublikowano 7 Lutego 2009 Ludzie kolejny temat w którym mit ostrego ATI jest powielany.... Owszem za czasow Matroxa, g2 i Ati 9100 faktycznie g2mx odstawal....ale to byly czasy analoga i malych monitorow...dzis echem przeszłości nadal gdzies ktos próbuje coś forsować. Mam samsunga 19cali LCD 940BW na 8800gt przez dvi obraz wygladal dobrze, teraz zmienilem na ATi hd4870 i obraz wyglada dobrze, WRECZ IDENTYCZNIE. Co prawda to prawda. Mam 22-calowe LCD, miałem je na GeForce FX5500, a obecnie na Radeonie 9550 (oba przez DVI).... no i stwierdzam, że nie ma różnicy. Za to gdy podłączałem GeForce2 i GeForce 4 (przez DSUB), różnica była znaczna. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
matas Opublikowano 7 Lutego 2009 Zgłoś Opublikowano 7 Lutego 2009 A ja śmiem się pokusić o stwierdzenie, że na NVIDII jest ładniejszy rendering czcionek obecnie. Po zmianie z 4850 na 6600 byłem w szoku. Jest ktoś w stanie to potwierdzić? :P Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Wedelek Opublikowano 7 Lutego 2009 Zgłoś Opublikowano 7 Lutego 2009 Myślę, że wynikało to z czego innego:P Co do wyglądu, to rzeczywiście obecnie obie firmy robią zbliżone pod tym względem do siebie układy. Jedyna różnica polega na tym, ze ATI daje narzędzia za free, a N-vidia każe sobie za nie płacić (chodzi o Avivo i Pure) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
silverato Opublikowano 7 Lutego 2009 Zgłoś Opublikowano 7 Lutego 2009 mi tylko chodzi o to czy jest opcja ostrosc,i widze ze seria 9 nie ma no i klops Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
alvin Opublikowano 8 Lutego 2009 Zgłoś Opublikowano 8 Lutego 2009 to i ja sie zapytam - mam radka 3850 i monitorek benq fp91gp, i dlaczego jak dam rozdzielczosc 1024 na 768 (standardowo mam 1280x1024) to czcionki i wszystko inne jest takie, ze sie tego ogladac nie da? pikseloza maksymalna, ostrosc 0%... Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
HucK Opublikowano 8 Lutego 2009 Zgłoś Opublikowano 8 Lutego 2009 Ja się przesiadłem z radka 9800pro na 8600GT i po kilku dniach na moim CRT zauważyłem, ze oczy mnie bolą dużo bardziej. Z gorszym obrazem na NV to nie mit, chyba, że ta przejściówka DVI>VGA psuje efekt. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
saleen Opublikowano 8 Lutego 2009 Zgłoś Opublikowano 8 Lutego 2009 to i ja sie zapytam - mam radka 3850 i monitorek benq fp91gp, i dlaczego jak dam rozdzielczosc 1024 na 768 (standardowo mam 1280x1024) to czcionki i wszystko inne jest takie, ze sie tego ogladac nie da? pikseloza maksymalna, ostrosc 0%... Bo matryce LCD są przeznaczone do pracy w rozdzielczości natywnej? Nie widzę w tym nic dziwnego. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
sideband Opublikowano 8 Lutego 2009 Zgłoś Opublikowano 8 Lutego 2009 Ja się przesiadłem z radka 9800pro na 8600GT i po kilku dniach na moim CRT zauważyłem, ze oczy mnie bolą dużo bardziej. Z gorszym obrazem na NV to nie mit, chyba, że ta przejściówka DVI>VGA psuje efekt.Już o tym pisałem 8600gt palit/gainward obraz jest kiepski , bo producent oszczędza :wink: , oczywiście róznica jest tylko na sygnale analogowym. Miałem 3870 i 9600gt w tym samym czasie obraz na crt był taki sam , jedynie jak zwykle na ati poziom luminancji mniejszy. Na dvi to czy zapodasz 3870 , 8600 , 6600 , GTX280 to obraz jest taki sam. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
IbanezRG Opublikowano 8 Lutego 2009 Zgłoś Opublikowano 8 Lutego 2009 (edytowane) nic nie miałem spiep%$# <_< wszystkie gf8 i 9 nie mają ustawiania ostrosci widzę człowieku, że ty jestes prawdziwym znawcą kart.. gratulacje jeżeli uwazasz, że ustawienia suwakiem ostrosci w 2d na geforce serii starszej niż 8 mają cokolwiek do czynienia z filmami.. ten sam efekt sobie zastąpisz kodekami FFDShow... a ten suwak ma/miał zgłoła inne zadanie... poza tym byś może pisał poprawnie na tym forum...no nic a Ty oddałeś kartę bo był obraz nieostry na duzym ekranie... mój drogi otóż w gf serii 8 faktycnzie suwak sharpness jest zaciemniony wynika to z ograniczenia sprzętowego ale mamy za to takie ustawienia.. wiec i wiecej opanowania w postowaniu i wiecej opanowania panelu kart nvidia życzę.. bo wybacz ale się uchihrałem tylko ;) bez urazy of kors ale może najpierw troszkę poczytaj zanim skierujesz tutaj tak beznadziejne zapytanie... pozdrawiam ps. dodam ze mam ekran 32 cale 1920x1080px obraz filmów nawet SD jest bardzo dobrej jakosci na 8800GT Edytowane 8 Lutego 2009 przez IbanezRG Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...