The Witcher 3 - dziwna sprawa z grafiką i wymaganiami

Właśnie nabyłem rano The Witcher 3 GOTY wersja 1.31 (wcześniej nie miałem przyjemności grać w tą część) i jest taka sprawa - dlaczego Crysis 3 (2 lata starszy) ma minimum dwa razy lepszą grafikę i JEDNOCZEŚNIE o 1/3 mniejsze wymagania od wiedźmina 3… w sumie 3 część Witchera ma gorszą grafikę od Witchera 2…

Mówią “Jeśli nie wiadomo o co chodzi…” więc zastanawiam się - czy producenci gier dostają teraz w łapę od producentów sprzętu (Intel, AMD, nVidia) żeby na siłę i za wszelką cenę, nawet wbrew logice (gorsza grafika), nabijać tym drugim sprzedaż ciągle zwiększając wymagania gier ?

EDIT: Wyczytałem przed chwilą że CDP zrobił “specjalny” patch (1.06 albo 1.07) który “cudownie” zablokował grę na dwurdzeniowcach powodując na nich nieznośnie niską grywalność (za mało FPSów i sttutering) poprzez zmniejszenie maksymalnego obciążenia rdzenia do 70% (jest nawet program na nexusmod BES tj Battle Encoder Shirase który to odwraca)

Właśnie nabyłem rano The Witcher 3 GOTY wersja 1.31 (wcześniej nie miałem przyjemności grać w tą część) i jest taka sprawa - dlaczego Crysis 3 (2 lata starszy) ma minimum dwa razy lepszą grafikę i JEDNOCZEŚNIE o 1/3 mniejsze wymagania od wiedźmina 3

Crysis 3 ma znacznie mniejsze mapy, dużo prostszą mechanikę.

Akurat wiedźmin 3 jest grą bardzo dobrze zoptymalizowaną (pomijając syf dostarczony przez pewnego producenta kart graficznych), na odpowiednim sprzęcie można mieć framerate 60FPS przez 99% czasu gry (w wielu grach to się nie uda, bo zdarzą się drobne chrupnięcia tu czy tam).

Wyczytałem przed chwilą że CDP zrobił “specjalny” patch (1.06 albo 1.07) który “cudownie” zablokował grę na dwurdzeniowcach powodując na nich nieznośnie niską grywalność

Może tym posunięciem rozłożyli obciążenie równomiernie na większą ilość wątków i gra sprawdza się teraz lepiej na procesorach wielordzeniowych (przypominam że obecnie konsumenckie ryzeny mają po 8 rdzeni, procesory na rynek hedt to 16 i więcej rdzeni).

Co do porównania z Crysisem 3 skłaniam się ku Twojej wypowiedzi przede wszystkim w kwestii wielkość świata, ale z drugą sprawą nie bardzo:

Jak ten patch wychodził to był przełom 2015/16 roku a ryzeny są od niedawna więc na pewno CDP nie miało wtedy “Insajda” że za półtora roku AMD wypuści dużo tańsze procesory wielordzeniowe i dwuwątkowe i AMD w końcu stanie do równej walki z Intelem. Mi to bardziej wygląda na wymuszenie na potrzeby Intela pod tytułem:

“Mój I3 nie radzie sobie z najlepszą grą 2015 roku - więc MUSZĘ dla niej wymienić swój procek na i5…”

EDIT: O co chodzi z tym zdaniem:
" (pomijając syf dostarczony przez pewnego producenta kart graficznych), "

Ogólnie granie na dwujajowcach jest coraz bardziej uciążliwe. Gry od paru ładnych lat coraz lepiej radzą sobie z wieloma rdzeniami i wątkami, ale kosztem właśnie dwujajowców. Wiedźmin wymaga mocnego procesora, bo świat tam żyje. Zachowanie NPCów czy stworzeń jest liczone na procesorze i najbardziej znanym miejscem testowania procesorów jest rynek w Novigradzie. Nie wiem, której serii masz i3, ale nawet 6th gen i3 się tam dławić potrafi. Witcher 2 nie ma lepszej grafiki. Wrzucono dużo filtrów, błysków, postprocessingu i gra wygląda na pierwszy rzut oka lepiej. Poza tym W2 nie ma tak rozległego świata jak W3 i jest tez podzielony na sektory. W3 ma ładniejsze modele, tekstury, ale trzeba było jednak nieco uciąć detali by gra nie wymagała komputera NASA jak pierwszy Crysis na premierę. Patch o którym wspominasz poprawiał działanie gry na wielordzeniowych procesorach. Lepiej rozkłada obliczenia na wątki. Niestety nastały czasy gdzie 2 jajka już zaczynają niewystarczać. 4c/4t to za niedługo będzie minimum, a 4c/8t to taki trochę zapas na zaś. konsekwencja ciagłych udoskonaleń. Zmniejszanie procesu technologicznego jest możliwe to pewnego momentu, potem pozostają rdzenie i zwiększanie ich liczby.

EDIT:
Wracając do
"pomijając syf dostarczony przez pewnego producenta kart graficznych
Koledze @anon42271672 chodziło o Nvidia Game(NOT)Works. Parę bajerów od Nvidii, które dają lepsze dymy, nieco fizykę i ogólnie parę innych niezauważalnych dodatków, ale przy okazji zabierają wiele mocy obliczeniowej procesora i karty graficznej. Gdy masz Radeona sprawa potrafi wyglądać tragicznie, bo wszystko bierze na siebie CPU.

ryzen, phenom ii, FX, A. Możesz przebierać w ofertach, ale najkorzystniej będzie jak kupisz Playstation4 znajdziesz fat już za 900zł.
Cała konsola w cenie Ryzena5 1600

Rada jak z pudelka z tym PS4. W zależności od tego jaki ma socket, i5 to koszt od 500 za używkę do 900 za nówkę. Po co wymieniać całą platformę, wytłumacz mi?

nawet jak wymieni to i tak trafi się tytuł który zmusi do kolejnej wymiany.

Niestety mam i3-3250, ale powoli, zbieram kasę na i5-3570 (być może z literką K), ale zakładając ten wątek bardziej niż o sobie myślałem o ogromnej rzeszy posiadaczy słynnego G4560 który nie jest wąskim gardłem nawet dla GTX 1060 6 Gb a nie radzi sobie z grą z połowy 2015 roku bo twórcom przypomniało się (w postaci patcha) że na tanich prockach nie można grać w ich grę… a że jestem Polakiem to od razu wyobraziłem sobie jak ktoś daje komuś w łapę :wink:

Nawet jak kupi PS4 to za chwilę SONY wyda kolejna wersję lub już PS5. Tak się możemy cały czas targować. Niemniej kto kupił i5 2400-2500 lata temu to na tym procesorze do tej pory spokojnie może działać. Teraz jak kupi 4c/8t to dalej posiedzi na tym lata. Postęp trochę zwolnił ostatnimi czasy. Intel dopiero teraz chce wydać 6c/12t dla mas. Kolejne kilka lat zajmie deweloperom zmiana przyzwyczajeń i pisanie pod procesory wielordzeniowe na 100%.

Nie chodzi o to kto dał w łapę czy cuś. W3 cierpiał na niską wydajność na wielordzeniowych procesorach, inne, nowe gry mają to samo. Wspomniany Pentium i i3 to dzisiaj minimum do grania, ale zapomnij o maksymalnej wydajności grafiki. Zawsze będą braki w wydajności.

Zastanów się nad i7-3770. Moża go dostać za 700 zł bez większego problemu, a w porównaniu do i5 dostajesz 8, a nie 4 wątki. z 12 miesięczną gwarancją to nawet ciekawy deal. chyba, że płyta go nie obsługuje, ale raczej wątpię. Ew. wystarczy aktualizacja BIOS…