Skocz do zawartości
LuKe

Różnica w podłączeniu monitora DVI a HDMI, DP?

Rekomendowane odpowiedzi

WITAM

 

czy jest jakas roznica przy podlaczeniu monitora przez kabel DVI a HDMI czy DP? nec p232w...

 

w isntrukcji wyczytalem zeby uzyskac 10bit glebie kolorow monitor musi byc podlaczony przez HDMI lub DisplayPort

 

jak w koncu z tym jest?

wlasnie doczytalem i zeczywiscie przez HDMI wyswietla 10bit , przez dvi tylko 8 bit

 

pytanie jaki ten kabel kupic? 

.... najtanszy z oznaczeniem High Speed

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wszystkie są cyfrowe. W zasadzie, który byś nie wybrał to będzie dobrze bo na typowym monitorze/TV nie zobaczysz różnicy (no chyba że jesteś grafikiem). Ja bym bardziej patrzył na funkcjonalność tych rozwiązań. Imo na dzień dzisiejszy lepiej wziąć HDMI bo jest najbardziej uniwersalne.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak nie masz profesjonalnej karty graficznej to i tak nie osiągniesz 10bit koloru. DVI ma przewagę w postaci pewniejszego łączenia wtyku z gniazdem dzięki tym dwóm śrubom, natomiast DP i HDMI są bardziej kompaktowe i interfejs ma większe możliwości przesyłu, zwłaszcza w DP.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

karta to gigabyte radeon hd 7850 2048MB

 

chodzi mi o glebie w grach i filmach, bo miedzy 6 bit a 8 bit jest kolosalna roznica (widac dokladnie w zaciemnionych miejscach)

 

mysle ze karta obsluzu 10 bit glebie kolorow

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

roznica miedzy 6 bit a 8 bit jest kolosalna, bo pierwszy ma jakies 262 tys kolorow, a drugi ma ponad 16 milionow.

Podejrzewam, że aż takiej gigantycznej róznicy między 8 a 10bit nie ma - to sie nadaje głównie tylko w statycznych scenach.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przeszukując internet w tej sprawie znalazłem info na stronie Sapphire, że wszystkie radeony od serii 5000 obsługują 10bit ale włączyć to w sterownikach możesz tylko na kartach z serii FirePro. Czyli wygląda na to, że jeżeli dany program nie obsługuje 10bit to nie włączysz tego (nie wymusisz w sterownikach). Może poczytaj o tym więcej bo wydaje mi się że 10bit raczej nie uzyskasz.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Karty FirePro są zbudowane na tych samych układach, co zwykłe radki. Kiedyś wystarczyło nawet zamienić tylko bios karty i sterowniki, by móc się cieszyć kartą do CADa itp, obecnie to już nie takie łatwe, ponieważ układy na PCB też są różne. I masz rację, odblokowanie 10bit koloru jest tylko kwestią sterowników.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No to właśnie o tym pisze. Że to musi dany program obsługiwać 10bit bo inaczej tego nie wymusisz w sterownikach bo karta jest tą zwykłą z serii Radeon. Steroników nie wgrasz innych bo się ID karty nie zgadza. Więc teraz trzeba wymyślić jak to obejść :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No to właśnie o tym pisze. Że to musi dany program obsługiwać 10bit bo inaczej tego nie wymusisz w sterownikach bo karta jest tą zwykłą z serii Radeon. Steroników nie wgrasz innych bo się ID karty nie zgadza. Więc teraz trzeba wymyślić jak to obejść Dołączona grafika

Pytanie jeszcze po co to robić, kiedy cała zawartość internetu jest zapisywana jako paleta 8 bit, a często jeszcze mniej. oczywiście to tyczy się również zdjęć, ramek, grafik i wszystkiego w koło. W grach komputerowych, z tego co wiem, to również kolory są zapisane na 8 bitowej palecie. Jedynie np. zdjęcia RAW z aparatów potrafią być w np. Photoshopie odczytane jako 10bit.

 

Czy autor tematu ma jakieś poważne zastosowania do tego, czy tylko chce mieć, aby mieć a i tak oglądać 8bitowe rzeczy na 10bitowej palecie ?  

 

Oczywiście nie mówiąc już o tym, że autor powinien mieć sprzęt do kalibracji, skoro chce się pakować w 10 bitów. No a może warto w niego zainwestować, wszak dobrze skalibrowane 8 bitów będzie zawsze lepsze, niż nieskalibrowane 10 bitów. Dołączona grafika

Edytowane przez MaciekCi

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

tak sobie pomyslalem ze skoro monitor obsluguje 10bit to dlaczego tego z niego nie wydusic :)

 

np. miedzy 6 bit, a 8 bit jest kolosalna roznica na grach, filmach, nawet filmikach z youtube

 

dlatego uzyskujac 10bit moze tez bedzie lepsza glebia obrazu (przejscia miedzy kolorami) ? zawsze warto sprobowac.......

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Luke, nie wiem czy Ty wgl doczytujesz posty do końca czy nie, ale odpowiedź dostałeś już na początku tematu. A dodatkowo MaciekCi Ci to jeszcze dokładniej wyjaśnił. Zapytałeś, masz odpowiedź. Nie będzie lepszej głębi obrazu na pelecie 10bitowej kiedy obraz został zapisany na palecie 8bitowej. Jak jesteś grafikiem (czego bym się raczej nie spodziewał) to wtedy to by miałi sens ale mieć po to by tego w życiu nie użyć? Co do kabli to bierz który Ci się bardziej podoba. Jak potrzebujesz krótki kabel HDMI to weź ten z tańszych. Jak dłuższy to kup coś droższego. Jeszcze co do kabli to HDMI pracuje z częstotliwością max 60Hz, zaś DVI-D z max 144-200 Hz.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 Jak dłuższy to kup coś droższego. Jeszcze co do kabli to HDMI pracuje z częstotliwością max 60Hz, zaś DVI-D z max 144-200 Hz.

 

HDMI 1.4 potrafi też 120Hz (teoretycznie nawet więcej bo przy FHD 3D 120Hz przesyłane są w tym samym czasie dwie ramki czyli tak jakby 2x120Hz dla obrazu nie 2D)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

HDMI 1.4 potrafi też 120Hz (teoretycznie nawet więcej bo przy FHD 3D 120Hz przesyłane są w tym samym czasie dwie ramki czyli tak jakby 2x120Hz dla obrazu nie 2D)

Dzięki za poprawkę. Pamiętam tylko kable sprzed 2 lat kiedy to 120Hz HDMI nie wydalało.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No tak, w wersji 1.2 tak było chyba. Teraz jest 1.4 i właśnie dla 3D wprowadzili większą przepustowość. Tak nawiasem to poczytajcie co chcą zrobić w wersji 2.0. Wygląda na to że rośnie konkurencja dla starej "skrętki" :P

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 Wygląda na to że rośnie konkurencja dla starej "skrętki" Dołączona grafika

W życiu. Przesłuchy na kabelkach HDMI są kosmiczne, więc nie ma szansy na konkurencję. 

 

Do Autora tematu mam tylko jeden komentarz/wiadomość. Daj znać, czy na 10 bitach będziesz widział fotkę w kolorze. :lol: Pzdr.

 

Dołączona grafika 

Edytowane przez MaciekCi

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

jak ujrzec cos w kolorze jak jest czarno szaro biale....

 

 

wiecej bitow daje tylko lepsza glebie tego samego odcienia, przejscia miedzy kolorem, chyba ze ja o czyms nie wiem .....

Edytowane przez LuKe

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie wiem czy się nie mylę, ale z tym zdjęciem chodzi o to, że jest w kolorach 10-bitowych. Jeżeli nie obsługujesz 10 bitów to zobaczysz odcienie szarości. Nie wiem czy o to chodziło, proszę mnie poprawić jeśli się mylę.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

taa, juz nie raz czytalem uwaznie posty i wyszedl bym na nich jak zablocki na mydle....

 

 

dlatego mam taka zasade, dopuki sam nie sprawdze to nieuwierze

 

na forum ew. mozna zapytac, ale bron boze sie nie sugerowac, lepiej samemu poszukac info w necie lub sprawdzic na wlasnej skorze

 

 

co do akurat samego kabla pewnie macie racje, ale i tak go wymienie bo ladniej bedzie wygladal przez HDMI, a dla mnie jak cos ladnie wyglada to juz 50% sukcesu Dołączona grafika

Edytowane przez LuKe

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tu się nie ma czym sugerować, to są proste logiczne fakty, których nie chcesz przyjąć. To tak jakbyś miał zdjęcie w rozdzielczości 1280x1024 i oczekiwał, że kupując monitor o rozdziałce 1920x1080 nagle jakość tego zdjęcia się magicznie poprawi. Jak materiał źródłowy jest zapisany w palecie 8bit to nawet jakby twój monitor miał 1000bit to różnicy nie będzie.

Albo ostatnio była tu osoba co chciała kupić monitor 120hz bo filmy nie wyglądają płynnie i też nie potrafiła przyjąć do wiadomości, że jak materiał jest nagrany w np 30fps to różnicy nie będzie bo klatki w filmie się nie rozmnożą dzięki szybszemu monitorowi.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Albo ostatnio była tu osoba co chciała kupić monitor 120hz bo filmy nie wyglądają płynnie i też nie potrafiła przyjąć do wiadomości, że jak materiał jest nagrany w np 30fps to różnicy nie będzie bo klatki w filmie się nie rozmnożą dzięki szybszemu monitorowi.

 

To był właśnie LuKe. :P

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

Ładowanie


×
×
  • Dodaj nową pozycję...