Czy nVidia zwalnia poprzednie serie kart graficznych?

Na sterach 399.24 miałem zawsze ok 9800 pkt a na 419.35 mam 10 tys “z groszami” w passmarku (ta sama wersja/build tego benchmarku) w W10 1809. W sumie to nie wiem od której wersji (4XX.XX) sterów to nastąpiło, ale coś tam jednak optymalizują… a co Wy na to… ??

PS. Czytałem/słyszałem gdzieś w necie że gdyby nVidia celowo spowalniała poprzednią generację kart i by to wykazano to pozwy zbiorowe w USA za to wykończyły by tą firmę karami finansowymi.

Sugeruję obejrzeć.

Oglądałem to wcześniej a także odpowiednik od Linusa i Polskiego Liptona z Morele… dlatego nie wierzę w tą plotkę powtarzaną do znudzenia że nVidia zwalnia poprzednie generacje kart.

A w tej bajce są jednorożce? Jest to taka sama bajka dzieciaków z dwiema lewymi rękami do komputerów jak to że różnicą jest to czy masz 60 fps w cs czy pińcset miliardów.

Poza tym, testy syntetyczne moim zdaniem to słaby wyznacznik wydajności.

A co myślicie o tym że nVidia obniża wydajność kart nadal, ale wpadła na nowy “genialny” sposób i tak długofalowo że nie sposób tego łatwo wykazać o ile w ogóle się da.
Chodzi mi o to że gry potrzebują coraz więcej VRAMu a jednocześnie nVidia dała RTX 2060 6 a nie 8 Gb a RTX 2080 czyli kombajn ma go tylko 8 Gb a nie minimum 12… GTX 1080 Ti ma 11 Gb i może okaże się za 3 lata że ta druga, choć starsza, po latach okaże się “wydajniejsza” a tak naprawdę nie dławi się limitem VRAMu co powoduje znaczny spadek FPS…

Co Wy na to ? AMD nie szczędzi swoim kartom VRAMu (jak i jej przepustowości) i po 5 latach okazuję się że karta nVidii choć na starcie była lepsza o 10% to po 5 latach jest słabsza o 20%, może też kiedyś na prawdę robili to przez stery (obniżanie wydajności) a teraz wpadli na “bezpieczniejszy” sposób tj taki że nikt nie zmusi ich do konstruowania kart tj. dawania VRAMu wg jego widzi mi się

Panicagaming może zamiast łapki coś byś skrobnął bo to pierwsze umie nawet dziecko z 1 podstawówki.
PS. Sam mam GTX 1060 6 Gb (ale dać tyle samo GTX 1660 Ti to IMO przegięcie - GPU za 2 lata będzie miał siły, ale pułap VRAMu mu nie pozwoli na to) więc nie jestem fanbojem nikogo i choć mam np. intela to ostrze sobie zęby na Ryzena 5 trzeciej generacji itd itp :slight_smile:

A jak kupie sobie samochód to po pięciu latach katowania na maximum możliwej wydajności i tysiącach moto godzin to też mam oczekiwać identycznych osiągów jak ten prosto z salonu lub nowszy model?\

To że karta sobie leży i tylko się grzeje nie znaczy że nie ulega degradacji jak inny sprzęt.

Czyli karty nVidii degradują się kilka razy szybciej ? Bo jakbyś obejrzał podany przez mnie film to chyba do takich wniosków byś nie doszedł.

PS. Mój procek (i7-3770 bez k) ma 6 lat i wyciąga 9600 pkt w passmarku choć średnia wynosi 9300 więc jakoś się nie zdegradował choć raz go prawie ugotowałem na teście Prime i źle nałożonej paście :slight_smile:

Jakbyś oglądał uważnie wyniki to wiedziałbyś, że Nvidia nie zwalnia kart graficznych tylko nie optymalizuje sterowników pod nowe gry. AMD przychodzi to łatwiej bo GCN jest z nami od HD 7xxx i trwa do tej pory w usprawnionej wersji więc poprawiając coś dla nowych kart, zyskują też te starsze. Tyle i aż tyle. Jak ktoś kupuje kartę na lata ze średniego segmentu to lepiej wyjdzie na AMD, ale jak kupujesz TOP i/lub zmieniasz karty często to zostaje tylko Nvidia - ewentualnie dalej AMD jak i tak siedzisz w segmencie średnim, bo w nim akurat firmy idą łeb w łeb jeżeli chodzi o wydajność.

Mit o zwalnianiu kart przez NV wziął się stąd, że ludzie nie potrafią czytać wyników testów.

1 polubienie

No tak, ale danie karcie RTX 2060 6 Gb czyli tyle samo co mojemu GTX 1060 to chyba przegięcie i wiadomo że szybciej niż później VRAM się skończy nawet przy 1080p… IMO ta karta potrzebuje 8 Gb i 256 bit i jeśli ja to wiem to na pewno widzieli o tym inżynierowie nVidii… i na pewno od marketingowców wiedzieli też że będzie to najbardziej opłacalny i chodliwy RTX więc czemu go tak wykastrowali że karcie za rok skończy się VRAM a mocy GPU będzie ciągle aż nadto bo jest porównywalna z GTX 1070 Ti a przy szynie 256 bit nawet by ją prześcignęła a kto wie nawet dorównała GTX 1080 ?

Czekaj czekaj… Czy właśnie porównałeś zużycie mechaniczne do układu scalonego? :smiley:

Niczego nie porównałem. Próbowałem zobrazować zużycie z czasem działania. To że coś leży i nic nie robi nie znaczy że się nie zużywa, ulega degradacji. Bo wiele osób myśli że kawałek PCB będzie wiecznie taki sam.

Masz na myśli? :smiley:

Te czemu moja C64 nadal działa tak samo jak działała 30 lat temu i do dziś mam ten sam zegarek co dostałem na komunie od chrzestnego (słynny Casio) ? :slight_smile: Zresztą nie zmieniajcie mi istoty tematu na jakieś czary-mary w stylu czas połowicznego rozpadu tj T 1/2 :slight_smile:

Zużywa - tak. Ale w żadnym wypadku nie spowalnia! Elektronika ma to do siebie, że albo działa bezbłędnie, albo nie działa wcale (czyli np. grafa rzuca artefaktami). Nie zacznie działać wolniej. Po prostu w pewnym momencie wyschnie albo wyleje jakiś kondensator, wejdzie korozja, przepięcie przebije jakiś tranzystor lub mechanicznie lut popęka i tyle. Urządzenie się nie włączy albo będzie pracować niepoprawnie.

Ok czy się zużywa czy nie to na pewno nVidia nie zużywa się szybciej niż AMD to primo a secundo to dlaczego kolejny test i to najnowszy, ale na jeszcze starszych kartach niż lipton pokazuje wyraźnie jakie wyje… ma nVidia na poprzednie generacje kart i że programują zużycie karty od chwili pierwszych planów na kartkach przez inżynierów (VRAM tj ilość jak i przepustowość) aż po programistów tj drivery…

PS. Wychodzi na to że jakbym 7 lat temu zabulił za 7970 ghz edition w wersji 6 Gb (DDR5 6 GHz i szyna 384 bity) to na monitorze 900p grałbym w nowości prawie na maksa do dziś.

Dokładnie tak.

Zapomina się również o tym, że o ile elektronika pozostaje wciąż taka sama, to oprogramowanie się zmienia.
Gra w wersji 1.1 może działać wolniej niż w wersji 1.0 :stuck_out_tongue_winking_eye:

NVIDIA ma obecnie praktycznie monopol, nie musi specjalnie dbać o klienta, więc spokojnie mogą olewać wsparcie starszych układów.

No więc trzymam kciuki za AMD niech ich procki jak i karty zawstydzą konkurencję… pisze to szczerze posiadacz i7-3770 i GTX 1060 6 Gb :smiley:

PS. Tylko niech zaczną od energooszczędności i wskaźnika moc per wat w kartach i sile pojedynczego wątku w CPU :slight_smile:
PS2. Zresztą czuję po kościach że mój następny blaszak czyli za 2 lata będzie miał wysokiego numeracją Ryzena 5 generacji 3 z dopiskiem X i jakąś Navi ze średnio-wyższej półki.

Już 570 4 Gb zaczyna odstawać (in plus) od GTX 1060 6 Gb:

A na początku (2016) GTX rywalizował bez problemu z RX 580 8 Gb

Coraz bardziej skłaniam się ku kupnie RX 590. Zasilacz da radę tylko nie wiem jak upchnę Fatboya w obudowie microATX… najwyżej wytnę “Boschem” zbędne “rusztowanie” do dysków HDD od dołu i wejdzie :smiley:

Co myślicie o sterach 425.31 ?

Metro Exodus - GTX 1060 High Preset (RTX off\on\ultra) FPS odpowiednio 80/15/8

Myślałem że nVidia da Pascalom obsługę FPS bo ze wstydu że jest w pełni z tego korzystającym monopolistą wyjdzie ludziom z poprzedniej generacji pierwszy raz na przeciw a tu zonk dodali obsługę RTX do Pascali tylko po to żeby zareklamować RTXy (czytałem dziś że RTX 2060 prześciga 2x w tej funkcji GTX 1080 Ti)

Nawet GTX 1660 Ti reklamują bo jak piszę ten serwis:

“Warto zwrócić uwagę, że aktywowanie DXR na starszych/słabszych grafikach obrazuje przy okazji pewną przewagę architektury Turing nad Pascalem. Mianowicie zdolność do równoległego wykonywania operacji stało- i zmiennoprzecinkowych z pełną przepustowością. Przy włączonym raytracingu, nawet pomimo braku wyspecjalizowanych rdzeni RT, GeForce GTX 1660 Ti generuje zbliżoną liczbę klatek do teoretycznie znacznie mocniejszego GeForce’a GTX 1080.”

Mówiąc krótko standardowe wg nVidii powiedzonko “Turing albo ogólniej obecnie wciskana generacja GPU albo śmierć” :)))