Nie wiem po czym dedukujesz, że pokazuje wciąż obraz analogiem, domyślam się, że po obrazku jaki towarzyszy zmianie źródła przy naciśnięciu przycisku na monitorze.
Monitor identyfikuje źródło po tym do jakiego gniazda jest podłączony. Przykładowo: kabel DVI podłączony do gniazda DVI na monitorze do komputera z przejściówką przy nim na d-sub i tak będzie przez monitor identyfikowany jako DVI ze względu na gniazdo, do którego podłączasz. W teorii kabel DVI jest lepszy niż D-SUB.
W kablu/złączu DVI może też występować sygnał analogowy i ta Twoja przejściówka może wcale nie zmienia rodzaju sygnału. Masz gdzieś dokumentacje tej przejściówki?
Nie koniecznie jest lepszy, jest inny
Nie zawsze to jest prawdą, DVI może dostarczać też sygnał analogowy.
Tak wiem, że nie koniecznie, stąd słowo “w teorii” :). Chodziło mi o samą identyfikacje wtyczki, bo wiele monitorów różnych film w ten sposób identyfikuje źródła.
Jeśli we “wtyczce” DVI będzie podany sygnał analogowy to według Ciebie monitor rozpozna “wtyczkę” i będzie oczekiwał na sygnał cyfrowy - a Ty wtedy powiesz: “widzę ciemność”
Żaden monitor nie identyfikuje po wpiętej wtyczce tylko po rodzaju sygnału który dostaje (i na których pinach on jest dostarczony),
W swoim monitorze mogę wpiąć dwie wtyczki (D-SUB i DVI), w obu kablach może być podany sygnał z tego samego komputera (k. graficzna ma gniazdo DVI i D-SUB), domyślnie monitor wystartuje z sygnałem DVI, ale w każdej chwili mogę przełączyć na D-SUB.
Dokładnie aby monitor odbierał sygnał cyfrowy musi być wpięty do złącza DVI, porzejściówka nic Ci nie da. Ja osobiście mam podłączony monitor do złącza DVI a na karcie do HDMI i naprawde jest różnica niż w przypadku DVI-DVI czy D-Sub-D-Sub tak więc jeśli twoja karta ma wyjście HDMI to polecam kabel DVI-HDMI
Z D-sub wychodzi sygnał analogowy. A trudno żeby monitor przełączył się w tryb “digital” jeśli dostaje sygnał analogowy. Bo taka przejściówka sama z siebie nie “cyfryzuje” sygnału.