LuKe Opublikowano 11 Grudnia 2013 Zgłoś Opublikowano 11 Grudnia 2013 WITAM czy jest jakas roznica przy podlaczeniu monitora przez kabel DVI a HDMI czy DP? nec p232w... w isntrukcji wyczytalem zeby uzyskac 10bit glebie kolorow monitor musi byc podlaczony przez HDMI lub DisplayPort jak w koncu z tym jest? wlasnie doczytalem i zeczywiscie przez HDMI wyswietla 10bit , przez dvi tylko 8 bit pytanie jaki ten kabel kupic? .... najtanszy z oznaczeniem High Speed Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Bonusso3 Opublikowano 11 Grudnia 2013 Zgłoś Opublikowano 11 Grudnia 2013 Wszystkie są cyfrowe. W zasadzie, który byś nie wybrał to będzie dobrze bo na typowym monitorze/TV nie zobaczysz różnicy (no chyba że jesteś grafikiem). Ja bym bardziej patrzył na funkcjonalność tych rozwiązań. Imo na dzień dzisiejszy lepiej wziąć HDMI bo jest najbardziej uniwersalne. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Dammeron Opublikowano 11 Grudnia 2013 Zgłoś Opublikowano 11 Grudnia 2013 Jak nie masz profesjonalnej karty graficznej to i tak nie osiągniesz 10bit koloru. DVI ma przewagę w postaci pewniejszego łączenia wtyku z gniazdem dzięki tym dwóm śrubom, natomiast DP i HDMI są bardziej kompaktowe i interfejs ma większe możliwości przesyłu, zwłaszcza w DP. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
LuKe Opublikowano 11 Grudnia 2013 Zgłoś Opublikowano 11 Grudnia 2013 karta to gigabyte radeon hd 7850 2048MB chodzi mi o glebie w grach i filmach, bo miedzy 6 bit a 8 bit jest kolosalna roznica (widac dokladnie w zaciemnionych miejscach) mysle ze karta obsluzu 10 bit glebie kolorow Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Dammeron Opublikowano 11 Grudnia 2013 Zgłoś Opublikowano 11 Grudnia 2013 To 8bit uzyskasz i na DVI. Ale Twoja karta nie wyrobi 10bit, do tego trzeba karty pokroju Quadro czy FirePro. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
LuKe Opublikowano 11 Grudnia 2013 Zgłoś Opublikowano 11 Grudnia 2013 tz ze co? nie ma sensu kupowac kabelka HDMI? nie bedzie glebszej glebi niz 8bit? albo poprawy czegokolwiek? Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Dammeron Opublikowano 11 Grudnia 2013 Zgłoś Opublikowano 11 Grudnia 2013 Skończ to parafrazowanie - już 4 posty temu dostałeś kompletną informację. :P Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
LuKe Opublikowano 11 Grudnia 2013 Zgłoś Opublikowano 11 Grudnia 2013 eee........... nie wierze, kupie zobacze...... Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
_KaszpiR_ Opublikowano 11 Grudnia 2013 Zgłoś Opublikowano 11 Grudnia 2013 roznica miedzy 6 bit a 8 bit jest kolosalna, bo pierwszy ma jakies 262 tys kolorow, a drugi ma ponad 16 milionow. Podejrzewam, że aż takiej gigantycznej róznicy między 8 a 10bit nie ma - to sie nadaje głównie tylko w statycznych scenach. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
LuKe Opublikowano 11 Grudnia 2013 Zgłoś Opublikowano 11 Grudnia 2013 co do roznicy miedzy 6 a 8bit to wiem ze jest kolosalna, dlatego kupilem monitor jaki kupilem :) i chcialem wydusic z niego jeszcze wiecej czyli 10bit...... Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Bonusso3 Opublikowano 12 Grudnia 2013 Zgłoś Opublikowano 12 Grudnia 2013 Przeszukując internet w tej sprawie znalazłem info na stronie Sapphire, że wszystkie radeony od serii 5000 obsługują 10bit ale włączyć to w sterownikach możesz tylko na kartach z serii FirePro. Czyli wygląda na to, że jeżeli dany program nie obsługuje 10bit to nie włączysz tego (nie wymusisz w sterownikach). Może poczytaj o tym więcej bo wydaje mi się że 10bit raczej nie uzyskasz. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Dammeron Opublikowano 12 Grudnia 2013 Zgłoś Opublikowano 12 Grudnia 2013 Karty FirePro są zbudowane na tych samych układach, co zwykłe radki. Kiedyś wystarczyło nawet zamienić tylko bios karty i sterowniki, by móc się cieszyć kartą do CADa itp, obecnie to już nie takie łatwe, ponieważ układy na PCB też są różne. I masz rację, odblokowanie 10bit koloru jest tylko kwestią sterowników. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Bonusso3 Opublikowano 12 Grudnia 2013 Zgłoś Opublikowano 12 Grudnia 2013 No to właśnie o tym pisze. Że to musi dany program obsługiwać 10bit bo inaczej tego nie wymusisz w sterownikach bo karta jest tą zwykłą z serii Radeon. Steroników nie wgrasz innych bo się ID karty nie zgadza. Więc teraz trzeba wymyślić jak to obejść :) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
MaciekCi Opublikowano 12 Grudnia 2013 Zgłoś Opublikowano 12 Grudnia 2013 (edytowane) No to właśnie o tym pisze. Że to musi dany program obsługiwać 10bit bo inaczej tego nie wymusisz w sterownikach bo karta jest tą zwykłą z serii Radeon. Steroników nie wgrasz innych bo się ID karty nie zgadza. Więc teraz trzeba wymyślić jak to obejść Pytanie jeszcze po co to robić, kiedy cała zawartość internetu jest zapisywana jako paleta 8 bit, a często jeszcze mniej. oczywiście to tyczy się również zdjęć, ramek, grafik i wszystkiego w koło. W grach komputerowych, z tego co wiem, to również kolory są zapisane na 8 bitowej palecie. Jedynie np. zdjęcia RAW z aparatów potrafią być w np. Photoshopie odczytane jako 10bit. Czy autor tematu ma jakieś poważne zastosowania do tego, czy tylko chce mieć, aby mieć a i tak oglądać 8bitowe rzeczy na 10bitowej palecie ? Oczywiście nie mówiąc już o tym, że autor powinien mieć sprzęt do kalibracji, skoro chce się pakować w 10 bitów. No a może warto w niego zainwestować, wszak dobrze skalibrowane 8 bitów będzie zawsze lepsze, niż nieskalibrowane 10 bitów. Edytowane 12 Grudnia 2013 przez MaciekCi Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
LuKe Opublikowano 12 Grudnia 2013 Zgłoś Opublikowano 12 Grudnia 2013 tak sobie pomyslalem ze skoro monitor obsluguje 10bit to dlaczego tego z niego nie wydusic :) np. miedzy 6 bit, a 8 bit jest kolosalna roznica na grach, filmach, nawet filmikach z youtube dlatego uzyskujac 10bit moze tez bedzie lepsza glebia obrazu (przejscia miedzy kolorami) ? zawsze warto sprobowac....... Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
pszywszymor Opublikowano 13 Grudnia 2013 Zgłoś Opublikowano 13 Grudnia 2013 Luke, nie wiem czy Ty wgl doczytujesz posty do końca czy nie, ale odpowiedź dostałeś już na początku tematu. A dodatkowo MaciekCi Ci to jeszcze dokładniej wyjaśnił. Zapytałeś, masz odpowiedź. Nie będzie lepszej głębi obrazu na pelecie 10bitowej kiedy obraz został zapisany na palecie 8bitowej. Jak jesteś grafikiem (czego bym się raczej nie spodziewał) to wtedy to by miałi sens ale mieć po to by tego w życiu nie użyć? Co do kabli to bierz który Ci się bardziej podoba. Jak potrzebujesz krótki kabel HDMI to weź ten z tańszych. Jak dłuższy to kup coś droższego. Jeszcze co do kabli to HDMI pracuje z częstotliwością max 60Hz, zaś DVI-D z max 144-200 Hz. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Bonusso3 Opublikowano 13 Grudnia 2013 Zgłoś Opublikowano 13 Grudnia 2013 Jak dłuższy to kup coś droższego. Jeszcze co do kabli to HDMI pracuje z częstotliwością max 60Hz, zaś DVI-D z max 144-200 Hz. HDMI 1.4 potrafi też 120Hz (teoretycznie nawet więcej bo przy FHD 3D 120Hz przesyłane są w tym samym czasie dwie ramki czyli tak jakby 2x120Hz dla obrazu nie 2D) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
pszywszymor Opublikowano 13 Grudnia 2013 Zgłoś Opublikowano 13 Grudnia 2013 HDMI 1.4 potrafi też 120Hz (teoretycznie nawet więcej bo przy FHD 3D 120Hz przesyłane są w tym samym czasie dwie ramki czyli tak jakby 2x120Hz dla obrazu nie 2D)Dzięki za poprawkę. Pamiętam tylko kable sprzed 2 lat kiedy to 120Hz HDMI nie wydalało. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Bonusso3 Opublikowano 13 Grudnia 2013 Zgłoś Opublikowano 13 Grudnia 2013 No tak, w wersji 1.2 tak było chyba. Teraz jest 1.4 i właśnie dla 3D wprowadzili większą przepustowość. Tak nawiasem to poczytajcie co chcą zrobić w wersji 2.0. Wygląda na to że rośnie konkurencja dla starej "skrętki" :P Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
MaciekCi Opublikowano 13 Grudnia 2013 Zgłoś Opublikowano 13 Grudnia 2013 (edytowane) Wygląda na to że rośnie konkurencja dla starej "skrętki" W życiu. Przesłuchy na kabelkach HDMI są kosmiczne, więc nie ma szansy na konkurencję. Do Autora tematu mam tylko jeden komentarz/wiadomość. Daj znać, czy na 10 bitach będziesz widział fotkę w kolorze. :lol: Pzdr. Edytowane 13 Grudnia 2013 przez MaciekCi Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
LuKe Opublikowano 13 Grudnia 2013 Zgłoś Opublikowano 13 Grudnia 2013 (edytowane) jak ujrzec cos w kolorze jak jest czarno szaro biale.... wiecej bitow daje tylko lepsza glebie tego samego odcienia, przejscia miedzy kolorem, chyba ze ja o czyms nie wiem ..... Edytowane 13 Grudnia 2013 przez LuKe Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
pszywszymor Opublikowano 13 Grudnia 2013 Zgłoś Opublikowano 13 Grudnia 2013 Nie wiem czy się nie mylę, ale z tym zdjęciem chodzi o to, że jest w kolorach 10-bitowych. Jeżeli nie obsługujesz 10 bitów to zobaczysz odcienie szarości. Nie wiem czy o to chodziło, proszę mnie poprawić jeśli się mylę. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Bonusso3 Opublikowano 13 Grudnia 2013 Zgłoś Opublikowano 13 Grudnia 2013 Chodziło o to, że z pustego i Salomon nie naleje czyli bardziej dosadnie że to co kolega chce zrobić to gra warta świeczki bo różnicy i tak nie zobaczy :-) Wysłane z mojego ZTE V970 przy użyciu Tapatalk 4 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
pszywszymor Opublikowano 14 Grudnia 2013 Zgłoś Opublikowano 14 Grudnia 2013 Mówimy mu to od pierwszego posta... Teraz do autora - masz już potrzebne informacje, a co z nimi zrobisz to twój wybór. Trzymaj się i czytaj uważniej posty następnym razem ;-) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
LuKe Opublikowano 14 Grudnia 2013 Zgłoś Opublikowano 14 Grudnia 2013 (edytowane) taa, juz nie raz czytalem uwaznie posty i wyszedl bym na nich jak zablocki na mydle.... dlatego mam taka zasade, dopuki sam nie sprawdze to nieuwierze na forum ew. mozna zapytac, ale bron boze sie nie sugerowac, lepiej samemu poszukac info w necie lub sprawdzic na wlasnej skorze co do akurat samego kabla pewnie macie racje, ale i tak go wymienie bo ladniej bedzie wygladal przez HDMI, a dla mnie jak cos ladnie wyglada to juz 50% sukcesu Edytowane 14 Grudnia 2013 przez LuKe Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Dammeron Opublikowano 14 Grudnia 2013 Zgłoś Opublikowano 14 Grudnia 2013 Jak nie zamierzasz nawet brać pod uwagę tego, co piszemy, to nie zawracaj tu nawet ludziom tyłka. I tak chcesz to sam sprawdzić, to po prostu to zrób i ciesz się swoim "lepszym obrazem". Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
LuKe Opublikowano 14 Grudnia 2013 Zgłoś Opublikowano 14 Grudnia 2013 po to jest forum zeby pytac, a co ja juz zrobie to juz moja sprawa, moze komus innemu sie przyda ten artykul Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
fenfir Opublikowano 14 Grudnia 2013 Zgłoś Opublikowano 14 Grudnia 2013 Tu się nie ma czym sugerować, to są proste logiczne fakty, których nie chcesz przyjąć. To tak jakbyś miał zdjęcie w rozdzielczości 1280x1024 i oczekiwał, że kupując monitor o rozdziałce 1920x1080 nagle jakość tego zdjęcia się magicznie poprawi. Jak materiał źródłowy jest zapisany w palecie 8bit to nawet jakby twój monitor miał 1000bit to różnicy nie będzie. Albo ostatnio była tu osoba co chciała kupić monitor 120hz bo filmy nie wyglądają płynnie i też nie potrafiła przyjąć do wiadomości, że jak materiał jest nagrany w np 30fps to różnicy nie będzie bo klatki w filmie się nie rozmnożą dzięki szybszemu monitorowi. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Dammeron Opublikowano 14 Grudnia 2013 Zgłoś Opublikowano 14 Grudnia 2013 Albo ostatnio była tu osoba co chciała kupić monitor 120hz bo filmy nie wyglądają płynnie i też nie potrafiła przyjąć do wiadomości, że jak materiał jest nagrany w np 30fps to różnicy nie będzie bo klatki w filmie się nie rozmnożą dzięki szybszemu monitorowi. To był właśnie LuKe. :P 1 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Leon166 Opublikowano 14 Grudnia 2013 Zgłoś Opublikowano 14 Grudnia 2013 To był właśnie LuKe. 1 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...