Obciążenie karty graficznej po HDMI

Dzień dobry,
krótko:
Czy to prawda czy też mit, że karta mocniej obrywa na wyjściu HDMI?
długo:
Mój stary laptop umarł smażąc się do temperatury, która sprawiła, że odlepiła się w nim grafika i informatyk zrzucił to winą na krab używania go wpiętego po HDMI do telewizora. Mój obecny Radeon HD 6670 podpięty do monitora HDMI musi działać na zbitych rozdziałkach, bo ustawienie standardowego 1440 czy FHD powoduje, że nie wyrabia - chociaż to pewnie to, że jest już z trzeciej ręki. Niemniej, obecnie leży wciąż zapakowany i pachnący GTX 1060, który wstawiony będzie w nowiutki piecyk. Problemem są wejścia - monitor ma wejście stare VGA i HDMI, zaś sama karta DVI i HDMI. Oczywiście, można bawić się w przejściówki i Jacki do przesyłania dźwięku, ale zastanawiam się, czy nie prościej by było połączyćto właśnie najzwyklejszym HDMI, by cieszyć się rozdzielczością FHD i dźwiękiem. Niestety z powyższych powodów boje się, że karta po roku-dwóch będzie jedynie nadawała się do wywalenia, bo za dużo się od niej wymagało, a kompa raczej kupuje na dłuższy użytek.

Dziękuje za pomoc, pozdrawiam,
TJ

Spisek producentów? Montują HDMI, żeby karty szybciej padały i żeby klienci nakręcali sprzedaż kupując nowe?

Na poważnie: pierwsze słyszę. Dla mnie mit.

To najprawdziwsza prawda!
I nawet sam sobie odpowiedziałeś,

Dasz radę na R 6670 pograć w Wiedźmina na tych marnych 24 klatkach w marnych 1440?
Prawdopodobnie nie :wink: Program TV wymaga na 100% mniej obliczeń, ale karta pewnie grzeje się przez wysokie wykorzystanie (duża liczba pikseli) i stąd może ten mit się narodził.

Raczej w Warframe na wszystkim Low/Medium po prostu komputer nie wyrabiał czasem robiąc glitch obrazu (zatrzymanie lub dosłownie wywalał całe spektrum barw) lub wyłączając całkowicie się, acz jak mówię, raczej fakt, że jestem trzecim właścicielem tegoż. Na 1680x1050 problem nie występuje, gdzie każda większa rozdzielczość zaczyna dosłownie dławić go, a potem zabijać.

Czyli śmiało można śmigać po HDMI i właściwie stratność (zużycie?) będzie taka sama jak po DVI? Jak pisałem, nie chce by nagle karta zaczęła wysiadać, bo nie zamierzam jej wyżynać do granic możliwości, wolałbym jakby starczyła na dłużej, a takie sytuacje uczą, że lepiej zapytać niż potem płakać, że “było nie używać HDMI”.

z tym Radkiem wygląda jakby coś mu artefakty zaczynały lecieć, może drugi właściciel ją odpiekał dla Ciebie, taka świeża okazja z Biedronki :wink:

Ogólnie podstawowa dla karty jest temperatura, to najbardziej wpływa na żywotność. I to nie tylko maksymalna, ale też szybkość zmian. tzn. Rozgrzanie do 100 jej zaszkodzi, ale równie mocno zaszkodzi otwarcie okna z -20 “żeby wystygła ładnie”.

Zadbaj o wietrzenie budy, dodatkowe dwa wentylatorki wyniosą 20 zł i się nie martw, gorzej jakbyś bitcoiny kopał, a czip odpadnie i tak kiedyś :wink:

Dziękuje ślicznie za pomoc, a w wentylatorki na pewno zainwestuje.

Nie ma żadnego obciążenia karty graficznej po HDMI i przestańcie mówić coś co jest nieprawdą.
I jak nie masz Display Port, to HDMI jest zalecane.

A kto tak powiedział?

Ogólnie na HDMI działa wszystko dobrze.

Oczywiście masz rację. To jest jedna z legend miejskich !