Mam GIGABYTE GTX 1060 6 Gb WindForce 2X na rdzeniu GP104 (a nie GP106) i pamięciach GDDR5 (wg najnowszego GPU-Z o czym dalej), ale nie z dopiskiem X. Moja karta została wyprodukowana w czerwcu 2018 a Gigabyte montował kości GDDR5X 2-3 miesiące później i karta była dłuższa oraz miała 3 wiatraki:
Kości VRAM w Pascalach były na początku trzech producentów:
-Samsung (największe OC, ale największa loteria 8800-9400 w zależności od widzimisię Samsunga)
-Micron (słabsze OC tj 8500-8600*, ale zawsze takie same niczym klony takiej samej jakości)
-Hynix (jeszcze mniejsze OC i dodatkowo najgorsze)
*Przejrzałem kilkanaście wątków: od graczy po górników i zawsze pisali że osiągali +5XX Hz na Micronach w GTX 1060.
I teraz o co mi chodzi podkręciłem swoje pamięci Micron do 8400 (skoro 8600 to maks to po co ryzykować aż tyle pomyślałem) aż przedwczoraj (wściekłem się jak zobaczyłem ceny kart) postanowiłem przetestować możliwości OC mojej karty i oto co osiągnąłem:
GPU np. w Furmarku (~15 minut) chodzi tak naprawdę na 2050 Hz (GPU Boost 3.0) i jest to stabilne (nic nie zrzuca) i bezpieczne (temp. poniżej 80 stopni i wiatraki maks 70%) plus zero artefaktów a wg statystyk Passmarka karta jest teraz szybsza od RX 580 o 5% w DX12 i 20% w DX11.
Testowałem wszystkimi “Markami” (3D, Pass, Fur) wyszło zawsze idealnie oraz grałem dziś ponad godzinę w Wiedżmina 3 - wszystko ustawione na maksa (+ HDRP 12.0 czyli Ultimate). Wybrałem tą grę ponieważ jest bardzo czuła na przeginanie z OC i inne “bóle” PC.
I teraz pytanie jak to jest możliwe że podkręciłem Microny GDDR5 do 9000 MHz czyli 9 Gbps ? (i to nie jest ostanie ich słowo… po prostu mam “cykora” dalej podkręcać)
Myślę że może mogę mieć Microny GDDR5X, ale BIOS producenta celowo (ale niby po co ??) lub bardziej niecelowo daje GPU-Z błędną informację.
PS. Jedyne co przychodzi mi do głowy to jeśli trafiłem na GP104 od GTX 1080 Ti (a pewnie najdoskonalszy Pascal miał najwięcej odrzutów z których robiono GTX 1060) to wtedy kontroler pamięci musiałby być GDDR5X, jednak Gigabyte nie chciało się tym chwalić ponieważ za 2 miesiące wypuściło 2-3 stówy droższego GTX 1060 oficjalnie z GDDR5X, dłuższego o 6 cm i trzema wiatrakami (link w pierwszym poście). Zobaczę jak zbiorę się na odwagę to będę kręcił VRAM co 100 Hz i jak dojdę do 10 GHz to sprawa będzie wtedy jasna.
A ja, przy obecnych cenach kart, będę miał pełnego pampersa jak przy 10 GHz w Furmarku będę klikał “BURN-IN test” dlatego na razie 9 GHz na Mikronach* mi styknie, a jakby co to trzy letnia gwarancja producenta jeszcze jest
*które to rzekomo przy GDDR5 bez X ledwo 8600 dają radę wg. graczy jak i kopaczy.
Mój GTX 1060 ma tak jak 90% tych kart wtyczkę 6-pin (są też 8-pin, ale były droższe i myślałem wtedy że to nic nie daje), i teraz problem jest taki grałem 4 godziny w Wiedżmaka 3 w mega graficznej lokacji czyli Skellige z włączonym GPU-Z, wg niego mój podkręcony GPU na 1.9 GHz w szczycie chodził na 2065 Hz (a temp. max. to 70 stopni i wiatraki 60 kilka %) i karta pobrała w szczycie 134 waty a jej maks to 140 wat (zwiększyłem power limit na maksa czyli do 116%).
I teraz pytanie, wiem że podkręcanie VRAM jest dużo mniej “wato-chłonne” niż OC GPU, ale czy 6 wat wystarczy żeby podkręcić VRAM z 9 do 10 GHz (jak się kiedyś na to odważę OFC) czy będę musiał zbić trochę zegary z GPU np. do równych 2 GHz przy GPU Boost 3.0 czyli do ~1850 MHz ?
PS. Jeszcze dziwna sprawa, Jak karta była podkręcona do 1800/8400 MHz to wiatrak CPU chodziły dużo szybciej w trybie Normal niż przy 1900/9000 Mhz w trybie Turbo… w sumie fajnie ponieważ często wył, ale nie rozumie tego tzn. co to ma wspólnego z sobą ? (CPU to i7-3770 bez k i pamięci RAM DDR3 2x4 Gb, 1600 MHz i CL8)
Jeśli mam GDDR5X, a chyba mam ponieważ najwięcej odpadu/odrzutu było z GTX 1080 zwykłego jak i Ti, a po drugie Microny GDDR5 maks kręciły do 8600 MHz (wg graczy i górników), to nic nie padnie zresztą będę podkręcał małymi kroczkami co 100 Hz.
Jak mi zwrócą 1200 PLN (na allegro maks 800 dostanę) to dołożę 800 i kupuje GTX 1660 Ti i zrobię OC VRAM z 12 do 14 GHz czyli do poziomu GTX 1660 Super więc będę miał GTX 1660 Super Ti Więcej mi nie trzeba… jeszcze mam -naście tytułów sprzed kilku lat do przejścia
Jak to czytać? Gdzie na tym GPU-Z jest informacja o taktowaniu zegara 9Ghz? I dlaczego jeden cykl zegara pamięci równy jest przepływowi jednego bita danych? CL1 i szyna pamięci równa jednemu bitowi?
GPU jest podkręcony na 1900 MHz, ale GPU Boost 3.0 dobija do 2065 MHz a VRAM do 9000 MHz czyli 9 Gbps czyli przepustowość 216 GB/s, nie wiem o co Ci chodzi ogólnie, czy to w ogóle od mnie, jak i z tym CPU-Z, ale GPU-Z pokazuje tak:
Nie rozumiem jak ty to liczysz. Boost podbija taktowanie zegara z 2GHz do 9GHz? No a jeśli nawet, to jak z częstotliwości przechodzisz tak płynnie na bity?
Nie wiem gdzie się źle wyraziłem, ale chodziło mi o to że Boost 3.0 podbija taktowanie GPU z 1900 MHz do 2065 MHz a 9000 MHz/9 GHz to stałe taktowanie kości VRAM
GTX 1060 z rdzeniem GP104 musiał być robiony (>90%) z GTX 1080 (Ti) czyli mieć kontroler pamięci GDDR5X -> najdoskonalszy chip Pascal = najwięcej odrzutu.
Skoro mój rzekomo (wg GPU-Z oszukany przez BIOS karty czyli producenta) GDDR5 (nie X) z Microna kręcił się, nie jak gracze i górnicy piszą maksymalnie 8600 MHz a na 9000 MHz, to musi to być to GDDR5X, ale producent się tym nie chwalił bo za niecały kwartał wypuścił GTX 1060 oficjalnie* z pamięciami GDDR5X, 6 cm dłuższa i trzema wiatrakami za niemal 300 zł więcej (październik 2018).
Niestety kręcąc pamięci do 10 GHz osiągnąłem max TDP tj 140 W (120W x 1.16) efektem tego jest lekkie zbicie taktowania GPU przez Boost 3.0 z 2065 MHz (przy 9 GHz) do 1987 MHz (przy 10 GHz), szkoda że karta nie ma wtyczki 8-pin, ale jak się nie ma co się lubi itd.
Może pokombinuje z UV żeby zmniejszyć pobór mocy przez GPU i podbić pośrednio zegary przez GPU Boost 3.0…
PS. Trochę zmniejszyłem kąt (tzn. szybciej idzie do góry na osi y) dotyczący kontroli wiatraków, sprawdzą później, ale temp maksymalna GPU powinna spaść o 3-4 stopnie, a mniejsza temperatura = mniejszy opór w układzie elektrycznym = mniejszy pobór wat przez GPU = większe taktowanie GPU Boost 3.0… dobrze myślę ?