GTX 1060 6 Gb (GP104) - mam kości Micron GDDR5 "zwykłe" czy X?

Witam,

Mam GIGABYTE GTX 1060 6 Gb WindForce 2X na rdzeniu GP104 (a nie GP106) i pamięciach GDDR5 (wg najnowszego GPU-Z o czym dalej), ale nie z dopiskiem X. Moja karta została wyprodukowana w czerwcu 2018 a Gigabyte montował kości GDDR5X 2-3 miesiące później i karta była dłuższa oraz miała 3 wiatraki:

https://www.techpowerup.com/gpu-specs/lookup?gpu=49b33d-10DE:1B83-1458:371A.A1.6144.1557.1772.ijXfeHtUnA

Kości VRAM w Pascalach były na początku trzech producentów:

-Samsung (największe OC, ale największa loteria 8800-9400 w zależności od widzimisię Samsunga)
-Micron (słabsze OC tj 8500-8600*, ale zawsze takie same niczym klony takiej samej jakości)
-Hynix (jeszcze mniejsze OC i dodatkowo najgorsze)

*Przejrzałem kilkanaście wątków: od graczy po górników i zawsze pisali że osiągali +5XX Hz na Micronach w GTX 1060.

I teraz o co mi chodzi podkręciłem swoje pamięci Micron do 8400 (skoro 8600 to maks to po co ryzykować aż tyle pomyślałem) aż przedwczoraj (wściekłem się jak zobaczyłem ceny kart) postanowiłem przetestować możliwości OC mojej karty i oto co osiągnąłem:

GPU np. w Furmarku (~15 minut) chodzi tak naprawdę na 2050 Hz (GPU Boost 3.0) i jest to stabilne (nic nie zrzuca) i bezpieczne (temp. poniżej 80 stopni i wiatraki maks 70%) plus zero artefaktów a wg statystyk Passmarka karta jest teraz szybsza od RX 580 o 5% w DX12 i 20% w DX11.

Testowałem wszystkimi “Markami” (3D, Pass, Fur) wyszło zawsze idealnie oraz grałem dziś ponad godzinę w Wiedżmina 3 - wszystko ustawione na maksa (+ HDRP 12.0 czyli Ultimate). Wybrałem tą grę ponieważ jest bardzo czuła na przeginanie z OC i inne “bóle” PC.

I teraz pytanie jak to jest możliwe że podkręciłem Microny GDDR5 do 9000 MHz czyli 9 Gbps ? (i to nie jest ostanie ich słowo… po prostu mam “cykora” dalej podkręcać)
Myślę że może mogę mieć Microny GDDR5X, ale BIOS producenta celowo (ale niby po co ??) lub bardziej niecelowo daje GPU-Z błędną informację.

Co Wy na to ?

PS. Jedyne co przychodzi mi do głowy to jeśli trafiłem na GP104 od GTX 1080 Ti (a pewnie najdoskonalszy Pascal miał najwięcej odrzutów z których robiono GTX 1060) to wtedy kontroler pamięci musiałby być GDDR5X, jednak Gigabyte nie chciało się tym chwalić ponieważ za 2 miesiące wypuściło 2-3 stówy droższego GTX 1060 oficjalnie z GDDR5X, dłuższego o 6 cm i trzema wiatrakami (link w pierwszym poście). Zobaczę jak zbiorę się na odwagę to będę kręcił VRAM co 100 Hz i jak dojdę do 10 GHz to sprawa będzie wtedy jasna.

Będę pełen podziwu jak dojedzie do 10k.

Cześć :slight_smile:
Może ta tabelka coś Ci podpowie: https://en.wikipedia.org/wiki/GeForce_10_series
Pozdro

A ja, przy obecnych cenach kart, będę miał pełnego pampersa jak przy 10 GHz w Furmarku będę klikał “BURN-IN test” dlatego na razie 9 GHz na Mikronach* mi styknie, a jakby co to trzy letnia gwarancja producenta jeszcze jest :smiley:

*które to rzekomo przy GDDR5 bez X ledwo 8600 dają radę wg. graczy jak i kopaczy.

Mój GTX 1060 ma tak jak 90% tych kart wtyczkę 6-pin (są też 8-pin, ale były droższe i myślałem wtedy że to nic nie daje), i teraz problem jest taki grałem 4 godziny w Wiedżmaka 3 w mega graficznej lokacji czyli Skellige z włączonym GPU-Z, wg niego mój podkręcony GPU na 1.9 GHz w szczycie chodził na 2065 Hz (a temp. max. to 70 stopni i wiatraki 60 kilka %) i karta pobrała w szczycie 134 waty a jej maks to 140 wat (zwiększyłem power limit na maksa czyli do 116%).

I teraz pytanie, wiem że podkręcanie VRAM jest dużo mniej “wato-chłonne” niż OC GPU, ale czy 6 wat wystarczy żeby podkręcić VRAM z 9 do 10 GHz (jak się kiedyś na to odważę OFC) czy będę musiał zbić trochę zegary z GPU np. do równych 2 GHz przy GPU Boost 3.0 czyli do ~1850 MHz ?

PS. Jeszcze dziwna sprawa, Jak karta była podkręcona do 1800/8400 MHz to wiatrak CPU chodziły dużo szybciej w trybie Normal niż przy 1900/9000 Mhz w trybie Turbo… w sumie fajnie ponieważ często wył, ale nie rozumie tego tzn. co to ma wspólnego z sobą ? (CPU to i7-3770 bez k i pamięci RAM DDR3 2x4 Gb, 1600 MHz i CL8)

Taaaa. podkręcaj, poodkręcaj. Padnie, to ci sklep zwróci kasę po starej cenie za kartę a ty zostaniesz z ręką w nocniku.

Jeśli mam GDDR5X, a chyba mam ponieważ najwięcej odpadu/odrzutu było z GTX 1080 zwykłego jak i Ti, a po drugie Microny GDDR5 maks kręciły do 8600 MHz (wg graczy i górników), to nic nie padnie zresztą będę podkręcał małymi kroczkami co 100 Hz.

Jak mi zwrócą 1200 PLN (na allegro maks 800 dostanę) to dołożę 800 i kupuje GTX 1660 Ti i zrobię OC VRAM z 12 do 14 GHz czyli do poziomu GTX 1660 Super więc będę miał GTX 1660 Super Ti :smiley: Więcej mi nie trzeba… jeszcze mam -naście tytułów sprzed kilku lat do przejścia :wink:

Za 2k powinny być rtx 3060 za niedługo.

Jak to czytać? Gdzie na tym GPU-Z jest informacja o taktowaniu zegara 9Ghz? I dlaczego jeden cykl zegara pamięci równy jest przepływowi jednego bita danych? CL1 i szyna pamięci równa jednemu bitowi? :thinking:

Patrząc na to jakie są ceny, to wątpię. A Nvidia odpaliła znowu produkcje 2060.

GPU jest podkręcony na 1900 MHz, ale GPU Boost 3.0 dobija do 2065 MHz a VRAM do 9000 MHz czyli 9 Gbps czyli przepustowość 216 GB/s, nie wiem o co Ci chodzi ogólnie, czy to w ogóle od mnie, jak i z tym CPU-Z, ale GPU-Z pokazuje tak:

Nie rozumiem jak ty to liczysz. Boost podbija taktowanie zegara z 2GHz do 9GHz? No a jeśli nawet, to jak z częstotliwości przechodzisz tak płynnie na bity?

Literówka z przyzwyczajenia, już poprawiłem.

Nie wiem gdzie się źle wyraziłem, ale chodziło mi o to że Boost 3.0 podbija taktowanie GPU z 1900 MHz do 2065 MHz a 9000 MHz/9 GHz to stałe taktowanie kości VRAM :slight_smile:

Dalej nie wiem skąd bierzesz to taktowanie vram. Przecież twój zrzut pokazuje coś innego.

w ddr5 na jeden takt zegara wysłane są cztery bity. zatem taktowanie efektywne równa się rzeczywiste x4.

Jakoś się matematycznie spina, tylko mnie zmyliło to mieszanie herców z bitami :wink:

A o to Ci chodzi, w przypadku pamięci GDDR5 wynik częstotliwości mnoży się razy 4 i tak wszędzie przyjęło się podawać :smiley:

PS. Tak mi namieszałeś w głowie że nie wiedziałem zupełnie OCB :smiley:

Tak w:
(G)DDR(1) razy jeden.
(G)DDR3 razy dwa.
(G)DDR5 razy cztery.

Dlatego na 2250 MHz w GPU-Z pisałem od razu 9000 MHz/9 GHz :smiley:

Tak jak myślałem:

  1. GTX 1060 z rdzeniem GP104 musiał być robiony (>90%) z GTX 1080 (Ti) czyli mieć kontroler pamięci GDDR5X -> najdoskonalszy chip Pascal = najwięcej odrzutu.
  2. Skoro mój rzekomo (wg GPU-Z oszukany przez BIOS karty czyli producenta) GDDR5 (nie X) z Microna kręcił się, nie jak gracze i górnicy piszą maksymalnie 8600 MHz a na 9000 MHz, to musi to być to GDDR5X, ale producent się tym nie chwalił bo za niecały kwartał wypuścił GTX 1060 oficjalnie* z pamięciami GDDR5X, 6 cm dłuższa i trzema wiatrakami za niemal 300 zł więcej (październik 2018).

*Sprawdźcie linka w pierwszym poście

i test:

Niestety kręcąc pamięci do 10 GHz osiągnąłem max TDP tj 140 W (120W x 1.16) efektem tego jest lekkie zbicie taktowania GPU przez Boost 3.0 z 2065 MHz (przy 9 GHz) do 1987 MHz (przy 10 GHz), szkoda że karta nie ma wtyczki 8-pin, ale jak się nie ma co się lubi itd.

Może pokombinuje z UV żeby zmniejszyć pobór mocy przez GPU i podbić pośrednio zegary przez GPU Boost 3.0…

PS. Trochę zmniejszyłem kąt (tzn. szybciej idzie do góry na osi y) dotyczący kontroli wiatraków, sprawdzą później, ale temp maksymalna GPU powinna spaść o 3-4 stopnie, a mniejsza temperatura = mniejszy opór w układzie elektrycznym = mniejszy pobór wat przez GPU = większe taktowanie GPU Boost 3.0… dobrze myślę ?