Jedna kość RAM czy dwie?

Witam mam zamiar kupić nowy komputer, a więc i pamięć RAM. Płyta ma 2 sloty. Pytanie czy lepiej wziąć jedną kość 16GB czy 2x8GB?

Podobno lepiej 2x8GB bo będą pracować w dual channel ale nie wiem czy to prawda.

Zależy jaka płyta, jaki ram…

Gdybym wybierał to wziąłbym jedną a za jakiś czas dokupił drugą ‘szesnastkę’.

Gigabyte GA-H110M-S2PV /intel H110, DDR4, LGA1151/

 

GoodRam 16GB (2x8GB) 2133MHz CL15

lub

Kingston 16GB 2133MHz CL15

 

To jest bez różnicy,bierzesz po prostu tańsze i dostępne.

…jeśli będziesz wykorzystywał zintegrowaną kartę graficzną, która korzysta z współdzielonej z procesorem pamięci RAM to należy stosować dwa moduły pamięci o jak najwyższej dopuszczalnej przez MOBO częstotliwości taktowania. A to z prostej przyczyny. Większa częstotliwość taktowania oraz praca modułów pamięci w trybie Dual-channel znacząco zwiększa przepustowość współdzielonej z procesorem pamięci RAM, a to ma duży wpływ na wydajność zintegrowanej karty graficznej.

Grafika będzie dedykowana gtx1060

w tym przypadku lepsze będą 2 kości. możesz zajrzeć na film liptona, który przeprowadzał taki test.

Zdecydowanie 2 x 16 GB.

Zdecydowanie bierz co bardziej opłacalne cenowo. Rewelacji o “miażdżącej” przewadze Dual Channel w grach, na zewnętrznym GPU jeszcze nikt inny nie potwierdził. 

Ok dzięki za rady.  :)

Do zakmnięcia

Gdyby jeszcze ktoś szukał odpowiedzi na ten temat czy 2x8gb czy 1x16gb - to potwierdzam. Znaczącej różniczy nie ma w tym. Tylko włóż ją w odpowiedni SLOT na płycie głównej. Bo tam różnie producenci proponują w który slot najlepiej wkładać jedną kość RAMU). Tak jak ktoś już tu wcześniej wspomniał (Bierz te które cenowo Ci odpowiadają). Patrz też na markę. Zwracaj uwagę na parametry np. 2133MHz - (chociaż jak kupisz wyższe to i tak będzie działać na 2133MHz). Zależy też od specyfikacji danej płyty gównej.
Lepiej trzymaj się swoich podanych parametrów.

Czasami też są tacy co kupują duże chłodzenie na procesor. I może RAM wadzić jeśli są np. 4 sztuki ramu po 8gb. Dlatego też z tej strony ja bynajmniej zwracałem uwagę żeby zwolnić jeden slot. Aby zmieściło mi się chłodzenie na procesor. kupiłem 2x16gb …i tak sloty 1 i 3 były puste (czyli miałem więcej miejsca na RADIATOR). Na mojej płycie gównej są 4 sloty.


romano333 - Pozdrawiam jeśli pomogłem

A po co komu 32 Gb ? Na teraz 16 Gb starcza z palcem w… na kilka lat, a jako zwolennik DUAL CHANNEL wybrałbym 2x8 Gb i najlepiej 3200 MHz i masz spokój na min 5 lat.

1 polubienie

Wiesz co, zależy od potrzeb. Wystarczy, że zajmujesz się grafiką, obróbką video, czy grzebiesz w wirtualizacji. Ja mam u siebie od dwóch lat 32GB i mi niestety mało - chipset nie pozwala na więcej.
Jednemu wystarczy 2-4GB, drugiemu 32GB a np. w jednym z klastrów (praca) mam 15TB RAM i też mi mało. Życie.

1 polubienie

image

1 polubienie

Tak. 16GB na dziś wystarczy nawet do najbardziej wymagających gier. I dobry przelicznik
“na dobre 5 lat wystarczy 16gb”

32gb dla wymagających i grzebiących w skomplikowanej grafice czy obróbce filmów lub innych sprecyzowanych programach.

Dziękuje że się zgadzasz - ja jako zwykły gracz i tak myślący (przyznam ze wstydem że nie pomyślałem o profesjonalnych zastosowaniach bo jestem amatorem w tych sprawach) zauważyłem że gry są coraz szybciej “łase” na VRAM niż na RAM systemowy.

PS. BTW Dlatego dziwi mnie że RTX 2060 o możliwościach GTX 1070 Ti dostał tylko 6 Gb VRAMu…

Monitory nagle urosły? Rozdzielczość 8K pod strzechy?

Nope. Call Of Duty BlackOps IIII, które na ustawieniach średnich zjada nawet 10 GB VRAM… Na moim RX 480 zjada cały VRAM i RAM po kilkunastu minutach gry… Czy to zapowiedź trendu? Być może. Ludzie narzekają, a gra się sprzedaje. Nie, ja nie kupiłem,. Korzystam z darmowego tygodnia. Z RTX 2060 będzie ten sam problem co z GTX 1060 3 GB. Potencjał jest, ale VRAM to zabije. Karta, która nadaje się do 2K na wysokich będzie się krztusić. Dzisiaj użycie VRAM na poziomie 4-5 GB nie jest niczym dziwnym.

1 polubienie

Też chciałem o tym pisać… są już gry co im nawet 6 Gb VRAMu mało na 1080p przy maksymalnych ustawieniach grafiki a co dopiero przy większych rozdzielczościach czy monitorach z G-Sync czy FreeSenc.