Dwie karty grafiki na PC używane na zmianę

To pomysł mniej więcej taki, jak wyjmowanie foteli pasażera na czas jazdy samemu, aby zaoszczędzić na paliwie. Ale rób jak chcesz. W każdym razie sugeruję zamiast kombinować, i tracić czas na to i na operacje instalacji karty, wkładania i wyjmowania, po prostu zarobić te 100zł w tym czasie i po temacie.

Porada kompletnie bez sensu. Po pierwsze nie wiesz ile zarabiam a po drugie wyobraź sobie, ze są ludzie którzy, nie znoszą marnowania pieniędzy. Marnują je zazwyczaj ci którzy ich mają zawsze za mało (zgadnij dlaczego). Jak zwykle zostaje metoda prób i błędów, bo pewnego rozwiązania nikt nie podał.

Może wydajniej będzie więcej tabletować.

Dla mnie rozbieranie komputera aby wyciągnąć wtyczki z karty, wsadzać ją i wyjmować jak będzie potrzebna, instalować sterowniki, narażać się na uszkodzenie karty, czy slotu aby zaoszczędzić te kilkadziesiąt zł w. Roku, to zwykle Januszowanie. Sam czas potrzebny na to jest wart więcej niż zaoszczędzone pieniądze. O ryzyku uszkodzenia sprzętu nie wspominając.

Ale rób sobie jak chcesz, dla mnie możesz nawet pamięci wyjmować jak nie są potrzebne i procesor zamieniać na Celerona. To twój sprzęt, czas i twoje pomysły. Abyś był szczęśliwy.

Tym niemniej jak już tak bardzo musisz, zwróć uwagę, czy obniżeniem taktowania karty nie osiągniesz podobnych rezultatów, bez narażania się na rozbieranie wszystkiego w kawałki.

A umiesz czytać ze zrozumieniem? Chyba nie bardzo. Wielokrotnie w tym wątku pisałem lub sugerowałem, że szukam najmniej inwazyjnej/najprostszej/najbezpieczniejszej metody a tyś się uczepił jednego zdania o wyjmowaniu karty. To jak pisałem jest ostateczność.A jako, że nikt tu metody pewnej nie podał na zerowy pobór prądu przez kartę, to podałem metodę pewną (choć najmniej praktyczną czy bezpieczną). Z tego samego powodu, będę próbował sam metodą prób i błędów jak już wspominałem.
I podkreślę raz jeszcze, że zaczynając od metod najmniej kłopotliwych i najsensowniejszych. Temat oszczędności na pewno mało popularny (nie tak jak o kupowaniu) co mnie wcale nie dziwi ale może na innym forum będzie więcej pomysłów w tym temacie (nie sprawdzonych, bo na to, że trafię na praktyka nie liczę) :slight_smile:

Nie na takiej metody, poza wyjmowaniem karty.

Natomiast podałem ci metodę, obniżenia poboru energii, wyłącz zintegrowaną kartę i zmniejsz taktowanie karty dedykowanej podczas pracy na „luzie”. Karty mają inne tryby wydajności podczas z pełną mocą i inne podczas pracy jako zwykły wyświetlacz, można nawet obniżyć napięcie GPU i jeszcze zejść energetycznie. Są narzędzia którymi można limitować moc karty.

Karta zintegrowana, którą dysponujesz to leciwa konstrukcja. W czasach gdy ją wyprodukowano, była bardzo przyzwoita, ale dzisiaj karta w procesie 22nm odstaje mocno od nowszych konstrukcji. Do tego zabiera ci pamięć RAM.

Pozwól, że jednak to zweryfikuję :slight_smile:
Aha napisałem do zera co prawda ale chodziło mi o efekt taki jakbym karty nie podłączył, czyli by dedykowana wskoczyła poborem na miejsce za integrę, gdy integra będzie wyłączona. To muszę zweryfikować.