Zakup karty graficznej

Ale przecież Radeony też mają DVI. :thinking:

One mają DVI-D- potrzebny konwerter.

Więc będziesz pchał się w starszą i używaną kartę tylko dlatego, że możesz w niej użyć przejściówki za 10 zł, a w nowym Radeonie byłby potrzebny konwerter za 20-30 zł? :joy:

A za 40 zł widzę nawet małą i praktyczną HDMI -> D-Sub. :stuck_out_tongue:

Nie ja tylko kolega, chodzi mu o jakość obrazu i podobno input lag jest też dosyć wysoki. Słyszałem, że pod DP leci lepszy obraz do VGa, są jakieś wysokiej jakości adaptery na takie połączenie?

Jaki procesor masz jeżeli chcesz RX??

Kolega, nie ja, ale mniejsza -i7 4770

No to normalne, że mały input lag będzie, bo obraz musi się przekonwertować. I on chce wysoką jakość obrazu na monitorze z D-Subem? :expressionless:
Nie ważne z jakiego cyfrowego złącza będziesz puszczał - ważne, że wynikowo leci na D-Sub. Sama w sobie jakość obrazu między DVI, HDMI i DP nie różni się niczym. To charakteryzuje złącza cyfrowe właśnie. Różnia jest tylko w obsługujących standardach (max rozdzielczości i odświeżanie) itp itd.

Nie wiem, czy mi się wydaje, ale nie widzę dużej różnicy między monitor FULLD HD VGA a monitorem FULL HD z wejściem cyfrowym, jakość ekranu jest wręcz identyczna, jedyne co rzuca się w oczy to na monitorze VGA podczas oglądania YouTube’a pojawiają się takie jakby poświaty danego koloru, gdy ja na przykład ciemniejszy ekran, ale nie rzuca się to w oczy jakoś. Nie kiedy mi się wydaje nawet, że monitor VGA ma lepszą ostrość niż ten drugi. Monitor VGA ma coś takiegi

dokładniej chodzi o te takie jakby prostokąty.

Tak się składa, ze całkiem nie dawno używałem swojego obecnego monitora na VGA, bo byłem bez karty graficznej i zintegrowana miała D-Sub lub DVI (którego nie ma już mój monitor). Jak odpaliłem na analogowym też nie poczułem różnicy, jednak jak po kilku dniach wróciłem do wejścia cyfrowego, nagle wszystkie krawędzie stały się ostre i wyraźne (np. nazwy ikonek na pulpicie), kolory nieco żywsze i pełniejsze, bardziej nasycone, i zerowy input lag (a przynajmniej zdecydowanie mniejszy).
Inny przykład - w pracy mam identyczne Delle obok siebie - jeden podłączony przez DP, drugi D-Sub - różnica zdecydowanie wyraźna właśnie w takiej ogólnej ostrości obrazu i nasyceniu kolorów.

Jeżeli nie czuć różnicy, to prawdopodobnie monitor jest słaby.

A te kwadraciki to wygląda jakbyś miał paletę barw 16-bitową.

Tzn. który monitor jes słaby, z wejściem cyfrowym? Albo po prostu ten monitor VGA jest jednym z lepszych.
W paleta jest ustawiona na najwyższą -32 bitową i nie ma możliwości zmiany.

Z definicji złącze analogowe jest bardziej ograniczone, występują mniejsze lub większe zniekształcenia przez właśnie puszczanie sygnału analogowego, a nie cyfrowego. Jeżeli nie widać różnicy między monitorem podłączonym pod D-Sub, a tym cyfrowo - zdecydowanie ten cyfrowy jest słaby.

A co z tymi kwadracikami, wiesz może jeszcze jak się ich pozbyć?
Pomożesz jeszcze z tymi prostokątami? Bo chciałbym się ich pozbyć z monitora, zaczynają być uciążliwe, szczególnie podczas oglądanie ciemniejszych zdjęć.

Ten RX570 4GB nagle kosztuje w xkom 300 pln drozej? To chyba jakis zart.