Sprzęt - czy będzie hulał?

Albo pojawia się sytuacja gdy jakaś klatka jest zerwana w środku bo karta swoje a monitor swoje.

To tak w skrócie. Tematy dla Ciebie V-Sync, FreeSync, G-sync. W ogóle to tu można długo dyskutować. Zacytuję wpis pewnej osoby z Tom’shardware

“Free Sync (i GSync) ustawia odświeżanie monitora (Hz) tak, aby „odpowiadało” szybkości GPU (fps). Ale tylko w pewnych warunkach to zadziała. Jeśli hz wynosi 240, a fps 100, Free Sync obniża hz do 100. Jeśli hz wynosi 120, a fps 150, dopasowanie nie może się zdarzyć. Synchronizacja pionowa działa w takiej sytuacji. Dopasowuje fps do hz, więc gdzie fps wynosi 100, a hz 60, V Sync obniża fps do 60.”

Tu masz przykład - 2 pierwsze okienka to karta zsynchronizowana z monitorem a ostatnie bez synchronizacji https://www.youtube.com/watch?v=QU8dnhFZKmM

To przykład dla monitora 60Hz. Sprawa jest rozbudowana bo powyżej 144hz już nie widać tak tearingu i z tego co piszą i można wyłączyć V-sync czyli limitowanie klatek na karcie. Czy nawet samo się wyłącza? Może dlatego u kolegi widziałeś to 300fps.

Temat się rozrasta a nie mam na tyle czasu, polecam przeprowadzić własne dochodzenie:)

Może ktoś kto się dobrze zna z FreeSync G-sync wyjaśni czy limitują one FPS w przypadku monitorów 144hz

ale macie zdrowie :wink:

Jesteś w stanie zrozumieć prostą rzecz?
Masz 60Hz monitor to nie ma wuja we wsi aby wyświetlił ci on więcej niż 60 klatek.
Niezależnie ile produkuje grafika nie wyświetli więcej bo nie ma takiej możliwości.

BTW, naucz się pisać.

A wiesz to wg zasady, ze nikt nie robi nic jak nie widzi dla siebie w tym jakiejś korzyści :laughing: sam nie do końca rozumiałem niuanse synchronizacji karty z monitorem, tj ze wszystkie technologie *Sync, a chciałbym to wiedzieć, więc zacząłem przegiąłem przeglądać temat i starać się odpowiadać na pytania. Może by ktoś z FreeSync G-Sync, mocną kartą i 144hz powiedział czy przy włączonej technologi *sync jest limit do 144FPS?

Ale wy debilami jestescie hahha. To jest wlasnie wasze forum mam taji sprzet 300 fps 144 hz monitor. Jak beda niedowiarki wysle tu ss

Zapewniam Ci, że nie ma tu ani jednej osoby, która nie wierzy w to jaki masz/kolega ma sprzęt i ze wyciąga on 300FPS. .

Zdradzę Ci natomiast tajemnicę, dlaczego nikt nie odpowiada na Twoje pytanie o to czy podzespoły, które podałeś będą ze sobą dobrze działać.

Więc stawiam na to, że pisałeś nieskładnie mimo próśb o pisanie po polsku, wiec osoby znające się na sprzęcie postanowiły nie włączać się do dyskusji a inne osoby zaczęły prowadzić dyskusję również “po swojemu”, na tematy luźno połączone z Twoim pierwszym pytaniem.

2 polubienia

Fajnie, ale twój monitor nie wyświetli więcej niż 144.

No kwestię tego, że monitor wyświetli tyle klatek ile ma Hz to autor pytania chyba już zrozumiał:)

Mimo to ciągle nazywa nas

Chcąc wklejać screen shot jak to jego sprzęt wyciska 300fps.
Po co generować tyle klatek jak nie można ich wyświetlić?
To jak 300KM w motorowerze zablokowanym do 50km/h.

Cholerka ciekawy temat, praca musi poczekać:D No więc wśród graczy są różne opinie, ale chyba większość skłania się ku stwierdzeniu że lepiej synchronizować. Trochę ten gracz wyjaśnia https://www.youtube.com/watch?v=XN9mgT0D1rY
Dalej wszystkiego nie wiem… :wink:

Zbadaj temat organoleptycznie.
Ja mam monitory 75Hz, jak nie synchronizuję widzę problemy z wyświetlaniem zwłaszcza ruchu, migotanie elementów itd.

Powiem ci krótko. Zabieraj swoje posty i spier dalaj stąd.

No tak, przy +/-60 Hz strasznie to widać. Pytanie jak zachowa się np G-sync przy 144hz i karcie która bez limitu wykręci 300fps? Będzie synchronizacja do 144fps? Podobno przy 144hz nie widać tak tearingu. Ktoś na jednym z for twierdził że powyżej 144hz nie ma limitu FPS. To moje pytanie.

Edit: Dobra, mam odpowiedź tak, tearing przy 144hz widać i to kwestia ustawień https://www.nvidia.com/en-us/geforce/forums/game-ready-drivers/13/290066/g-sync-with-frame-limiter/

I vice versa, podłącz czarnobiały monitor i udowadniaj, że po ustawieniu “paleta kolorów 64 bit” zacznie Ci wyświetlać gry na kolorowo. To co widzisz, i udowadniasz, to ilość wygenerowanych klatek przez kartę. Monitor wyświetla informacje o wydajności karty (300), ale do wyświetlenia na ekranie (144hertze) wybiera co drugi obrazek, a te niewykorzystane idą do kosza.

Per analogia, mamusia nagotuje Ci 30 kilo bigosu, czy zdjęcie takiego gara oznacza, ze tyle zjadłeś? NIe. Nie masz brzucha z gumy i tyle nie przetworzysz, czyli zjesz z pół kilo, a reszta pójdzie na śmietnik.

W tym całym wyższym fps jest o tyle prawdy, że jeśli na jedno wyświetlenie ramki monitora karta generuje dwie, to monitor wyświetli tą drugą, czyli będzie bliższa faktycznemu stanowi gry. Tylko że to są już takie ułamki sekundy różnicy, że ludzki mózg nie jest w stanie tego zauważyć, a tym bardziej zareagować. Dobrzy gracze przygotowani do testu mają czas reakcji na poziomie 200ms? a tutaj piszemy pewnie o pojedynczych milisekundach zysku? To jest takie voodoo i oszukiwanie samego siebie, że będzie się lepszym graczem jak z myszką o rozdzielczości sensora 50000dpi :wink:

O właśnie dokładnie w temacie synchronizacji przez limit FPS - nad tym samym się zastanawiałem ale nie wiedziałem jak to ująć w słowa.

Można też dowodzić, że podczas tych dwóch klatek na jedno odświeżenie monitora, gracz będzie w stanie lepiej wykonać ruch, mimo że monitor tego nie pokaże. Może przy 60hz to i by miało jakiś sens. Przy 144+ bardzo wątpię.

Gracze swoje a ślepe testy swoje.

1 polubienie

Temat prawdopodobnie założony przez trolla sądząc po sposobie wypowiedzi.

Ja obstawiam jakiś dzieciak bardziej wieku 11-13 lat, który robi sobie zawody z kolegami czyj sprzęt wyciągnie więcej fpsów.

No raczej tak, za dzieciaka tego typu rzeczy są najważniejsze na świecie. Któż z nas za dzieciaka nie wciągnął się choć raz w tego typu ‘zawody’ ? :slight_smile: