


Если у меня монитор 60 Гц, а игра выдаёт 200 FPS, действительно ли я вижу 200 FPS?
Хочу узнать: если у меня монитор 60 Гц, а игра выдаёт 200 FPS, значит ли это, что игра идёт действительно 200 FPS или на самом деле там 60 FPS?
Частота матрицы — это количество обновлений изображения на дисплее за одну секунду. Чем выше частота, тем больше игровых кадров может отобразить монитор. Это влияет на плавность в играх — уже при 60 Гц и 60 к/с игровой процесс становится комфортнее. Однако, чем выше частота кадров и частота монитора, тем больше «мыла» появляется в быстрых сценах. В некоторых играх это не так заметно и не столь существенно, в других же мыло на 100% убивает геймплей и мешает хэдшотить в киберспортивных соревнованиях по CS:GO.
Количество «смазов» зависит от качества матрицы. Поэтому частота монитора — это лишь количественная характеристика. Существует еще и другая величина — качественная. Именно вторая характеристика задает планку резкости для быстро перемещающихся объектов на мониторе. Ее называют скоростью или временем отклика пикселей.
Частота обновления монитора отвечает только за скорость смены изображения на экране. Но это не значит, что принцип «больше — лучше» будет работать до бесконечности. На практике монитор ограничен не только герцами, но и временем отклика. Немалую роль играет такое понятие, как скорость реакции пикселей на смену состояния.
Время отклика — это максимальное время, которое необходимо пикселю, чтобы полностью сменить цвет. По стандартам ISO настоящая скорость реакции измеряется в режиме полного перехода, то есть, Black-to-Black. Для этого на обесточенный и непрозрачный пиксель подается максимальное напряжение. Он открывается, пропускает свет, напряжение пропадает, пиксель закрывается. Миллисекунды, затраченные на «разогрев» пикселя от черного цвета к белому и его остывание, считаются минимальной скоростью отклика.
Для стандартной IPS-матрицы время отклика пикселей в таком режиме составляет 16–20 мс. TN в этом плане выглядят серьезнее — это всего 5–8 мс. Правда, такие цифры не указывают в характеристиках мониторов. Наоборот, даже в среднем по рынку IPS-дисплее можно встретить 8 мс и даже 5 мс, что намекает на очередную хитрость от производителя. Чтобы добиться низкой задержки, инженеры используют другой способ замера. Вместо полного BtB специалисты считают время по GtG — от серого к серому или от 90% яркости пикселя к 10%.
В этом режиме пиксели оказываются намного шустрее: качественные IPS-матрицы показывают от 1 до 2 мс, а посредственные — не более 5 мс. Эти цифры обычно и публикуют в технических характеристиках дисплеев.
Скорость работы пикселей влияет на резкость изображаемых объектов в динамичных сценах. Поэтому частота обновления монитора зависит от этого физически. Например, анимацию с приемлемой резкостью на частоте 240 Гц может показать только матрица с быстрыми пикселями (1 мс). В другом случае пользователь не увидит преимуществ быстрого монитора и будет «наслаждаться» плавным месивом из цветных слайдов и пропадающих полутонов.
Да, но у тебя кадры разорванные. Лучше используй v-syns.
нет, ты увидишь только 60, но эти 60 будут более "актуальными" чем при 60 фпс локе. + инпутлаг будет значительно меньше
Ты увидишь 200 фпс, но не так как ты думаешь.
На каждом кадре который показывает монитор (а их не может быть больше 60) будут кусочки от разных кадров которые отрендерила видеокарта. Это называется "разрывы изображения".
Вот пример.
(Это прямо жесткий случай для примера, а так в целом разрывы могут быть почти не видны)

Игра идёт в 200 FPS но монитор её отображает в 60 "FPS"