Всем привет, дорогие друзья. Рад вас видеть! Кому-то принципиально видеть в играх стабильные 60 кадров в секунду, кто-то до сих пор считает, что человеческий глаз не видит больше 24, а кому-то 100 герц вместо 144 будут резать глаза. Все это создает кучу холиваров и бесконечные вопросы "а надо ли оно вообще?".
Вот сегодня и посмотрим, что есть "герцовка монитора", развеем пару мифов, а также прикинем - когда надо взять "много герц", а когда это будет лишней переплатой.
Пункт первый
Итак, дамы и господа, утверждение:
Человеческий глаз не может воспринимать больше 24 кадров в секунду
Опровергнуть его достаточно просто - просто посмотрите на объект, который мерцает 24 раза в секунду. Мерцание будет сильно заметно, а опыт можно провести тупо найдя подходящее видео на ютубе.
Искать серьезные исследования в интернете автор пока не научился, так что вот материал тех, кто умеет. Если коротко, то ни о каких 24, 30 или даже 60 кадрах в секунду речи не идет, и вообще, глаз - это не монитор, у него нет определенной "герцовки" или "частоты". По некоторым данным, он способен улавливать изменения при частоте вплоть до 1 кГц, то есть до 1000 герц. Это не значит, что при переходе с 240-гц монитора на 360-герцовый вы увидите разницу, потому что есть еще куча факторов, типа того же фи-феномена, но тем не менее.
Понятное дело, что человеческое зрение работает не так просто, и здесь везде есть куча нюансов, но, повторю, видим мы не в 24 и даже не в 60 ФПС. Проверить это можете и вы сами: прийти к любому знакомому с 120-герцовым монитором и просто позалипать у него в компьютере. Разница будет особенно заметна при играх или при прокручивании списков.
Я знаю, что тут есть люди, пришедшие с вопросом "а сколько герц мне надо для игр?". Отвечу - от 90 до 120. После 100 герц дальнейшее нарастание частоты воспринимается не так сильно, но вот между 60 и 100 разница колоссальная.
Пункт второй - как это работает?
Мы же тут все простым языком, да? Так вот, одна простая гифка:
Ладно, вот еще одна:
Это - максимально простое объяснение. Объект на экране проходит одинаковый путь, но чем больше частота обновления монитора - тем все это дело выглядит плавнее.
Тут важно помнить только две вещи: время отклика пикселя и тот факт, что монитор лишь выводит изображение, но не участвует в его формировании. Если время отклика пикселя достаточно большое, можно столкнуться с неприятным эффектом "шлейфа" изображения - когда объект меняет свое положение на экране, а пиксели реагируют на это как бы с опозданием (реагируют-то они вовремя, но при долгом отклике это не имеет значения).
Ну и логично, что при меньшей частоте обновления "гостинг" будет менее заметен просто потому что каждый кадр будет дольше задерживаться на мониторе, а значит у пикселей есть больше времени. Я умею объяснять, знаю. Короче, лучший (по моему мнению) тест на гостинг - это быстрое копание незерака в аду майнкрафта. Как оказалось, для монитора это довольно тяжелые условия, тот же Huawei Mateview GT 27 не справляется (а вот в других ситуациях ничего подобного замечено не было).
А вот на втором остановимся чуть подробнее.
Компьютер-картошка и монитор на много герц
Есть ситуации, когда быстрый монитор не очень-то и нужен. Есть у нас условный компьютер, который в условной игре выдает 120 кадров в секунду. Если при этом пользователь смотрит в 60-гц монитор, то и видит он... Да, тоже 60 кадров в секунду. "Лишние" кадры просто теряются, так как монитор не успевает их вывести.
Если же поставить к этому компьютеру 120-герцовый монитор, то пользователь увидит уже 120 кадров в секунду - идеально. Если мы пойдем еще дальше и поставим, скажем, 240-герцовый монитор, то увидим те же 120 кадров - ровно столько, сколько выдает наш компьютер. Уже поняли, что я пытаюсь донести? Да, плавность изображения зависит не только от монитора, но и от того, сможет ли компьютер выдать столько кадров в секунду. Если не может - значит и часть профита теряется.
А есть ли польза для зрения от высокой частоты?
Ну, я не эксперт, но все же, думаю, более плавные изображения меньше нагружают глаза. Вообще вред для зрения от мониторов скорее обусловлен старым типом подсветки, которая мерцала - в современных моделях подсветка практически всегда Flicker-Free, то есть не мерцающая.
Так что в плане защиты зрения эффективнее будет посмотреть на тип подсветки матрицы, а не на частоту ее обновления.
Таким образом, мы (надеюсь) усвоили:
- Человеческий глаз способен видеть много герц - точно не 24 и даже не 60, при этом после 100 герц разницу в плавности картинки увидеть сложнее (хотя все еще можно) из-за фи-феномена (наш "природный" motion-blur);
- Высокая частота обновления, в первую очередь, сделает картинку плавнее, причем заметно это будет да практически везде - даже курсор будет передвигаться по экрану намного более "красиво";
- Тем не менее, дешевые высокочастотные мониторы (особенно VA) имеют гостинг, то есть имеют слишком большое время отклика у пикселя, что при большой частоте будет заметно;
- Если у вас слабый компьютер, то смысла от высокочастотного монитора будет мало, так как в большинстве игр он не выдаст достаточно кадров в секунду, чтобы разница с 60 герцами была ощутима;
- В плане защиты глаз - смотрим не на частоту обновления, а на подсветку без мерцания (Flicker-Free), либо аналогичную;
Перед покупкой желательно посмотреть оба монитора бок-о-бок. Не видите разницы или не считаете ее критичной? Смело берите 60 или 75 герц и экономьте, но если разница таки заметна, а под столом стоит весьма мощная машина - советую прикупить монитор с частотой побольше.
Ну вот уже на этом у меня все. Если было полезно или интересно - не забудь поставить лайк и подписаться на канал. До скорого!
Подпишись на телеграм (там IT-новости), Ютуб (там иногда выходят прикольные видео), и группу ВК (там пока ничего нет, но это только пока).
А если хочешь помочь мне с развитием канала - буду благодарен за каждый репост! Спасибо!