Недавно в ленте мне попалось видео, от которого я сначала просто рассмеялся. Представьте: бабушка в вязаной шали выгуливает носорога по двору хрущёвки и спокойно рассказывает, что он «ест тренды», «возит её в магазин» и вообще ведёт себя лучше, чем зять. Звучит как весёлый монтаж, правда? Вот только выглядело это видео чересчур реалистично. Настолько, что я на секунду засомневался: а вдруг... правда?
И тут меня накрыло: да это же теперь новый стандарт интернета! Настоящее видео? Или работа нейросети? Где граница между шуткой и обманом?
VEO 3 — мощный инструмент от Google, который меняет правила игры
Если вы ещё не слышали, VEO 3 — это новая разработка от Google, которая способна создавать гиперреалистичные видео буквально из ничего. Точнее — из текста, пары картинок или даже чернового сценария. Пишешь что-то вроде «мэр города признаётся в том, что украл Луну», и получаешь ролик с живым человеком, идеальным светом, натуральной речью и качеством, как будто это снимали для телевидения.
И всё бы ничего — звучит как праздник для креативщиков. Но проблема в том, что этим инструментом пользуются не только художники и режиссёры. Им уже вовсю вооружились те, кто хочет манипулировать общественным мнением. И я вижу это всё чаще.
Один ролик — и я чуть не стал жертвой
Был случай: листаю вечером соцсети, натыкаюсь на видео в формате новостного репортажа. На экране ведущий, сзади пылающие здания, в титрах — якобы «экстренные новости о техногенной катастрофе». Голос — убедительный, подача — профессиональная. На автомате уже хотел поделиться в мессенджере, но вдруг заметил: у аккаунта, который это выложил, всего три подписчика, а в шапке профиля — надпись «мы раскрываем правду».
Вот тут у меня сработал внутренний стоп-кран. Я начал искать подтверждения в других источниках — и, конечно, ничего. Это было чистой воды фейковое видео. Сделано так мастерски, что без проверки в это легко поверить.
Почему это становится проблемой (и не только для тех, кто «в танке»)
Давайте честно: фейки в интернете были всегда. Но раньше они выглядели топорно. Кто-то плохо смонтировал кадры, у кого-то губы не совпадали с голосом, где-то видно было «зелёнку» за спиной. Мы смеялись, крутили пальцем у виска и шли дальше.
Но VEO 3 изменил всё. Теперь фейковое видео может выглядеть лучше, чем реальное. И вот это пугает. Потому что в какой-то момент мы перестаём понимать, чему верить. А дальше — потеря доверия ко всему: к новостям, к экспертам, к самому факту визуального свидетельства.
И вот ты уже не знаешь: это реальное интервью или выдумка? Это журналист или просто сгенерированный бот с убедительной подачей? Страшно не то, что обманывают. Страшно, что мы перестаём чувствовать, где реальность.
Как я стал осторожнее — и что мне помогает
После нескольких таких «попаданий» я выработал для себя определённый набор правил. Делюсь — вдруг и вам пригодится:
1. Проверяю источник
Если ролик выкладывает крупное медиа — ОК, можно доверять. Но если это аккаунт без лица, с именем вроде @truthvision_xx и парой случайных постов — сразу красный флаг.
2. Присматриваюсь к мелочам
Даже у продвинутого AI бывают косяки. Где-то губы движутся чуть не в такт, где-то фон выглядит слишком «стерильно», без глубины. Такие детали выдают подделку.
3. Сравниваю с другими источниками
Если в видео говорится о крупном событии, я проверяю: пишут ли об этом другие СМИ? Есть ли официальные заявления? Если нигде больше нет — значит, это фантазия.
4. Ищу технические метки
Некоторые AI-инструменты автоматически оставляют след — водяной знак, маленькую подпись вроде «Generated by VEO». Внимательный взгляд может это заметить.
5. Доверяю своей интуиции
Если видео кажется слишком уж сенсационным — типа признания в краже небесного тела или говорящего носорога — я включаю внутреннего скептика.
6. Использую фактчек-сайты
Snopes, FactCheck.org, даже обычный поиск по картинке в Google — все эти инструменты не раз выручали. Иногда достаточно 30 секунд, чтобы понять: перед тобой фейк.
А что с этим вообще делать?
Чем дольше я в этом копаюсь, тем больше понимаю: одного личного скепсиса мало. Проблема системная. Но что можно сделать?
- Маркировка AI-контента. Пусть видео, созданные нейросетями, сразу помечаются — значком, текстом, любым сигналом. Чтобы зритель понимал: это не реальность.
- Медиаграмотность. Было бы круто, если бы базовые навыки распознавания фейков преподавали в школе. Я бы, например, с удовольствием прошёл такой курс лет десять назад.
- Инструменты верификации. Представьте: загружаешь видео в приложение — и получаешь отчёт, где, кем и когда оно создано. Это не фантастика — это ближайшее будущее, если захотеть.
- Регулирование технологий. Речь не о запретах. Но ограничить доступ к созданию фейковых новостей хотя бы технически — идея не такая уж и плохая.
В чём суть?
Интернет меняется — и с ним меняемся мы. VEO 3 и похожие технологии не исчезнут. Более того — их будет становиться больше. И они, скорее всего, станут ещё мощнее.
Но наша задача — не терять бдительность. Быть чуть внимательнее. Чуть скептичнее. Чуть осознаннее. Не превращаться в параноиков, но и не кидаться на каждый шумный ролик.
Я, например, теперь дважды подумаю, прежде чем отправить друзьям видео про бабушку с носорогом. Сначала посмотрю, нет ли в углу водяного знака. Потом проверю автора. А потом уже — если всё ок — отправлю. Или не отправлю. Ведь правда — она дороже лайков.
Не пропускайте важные новости в мире ИИ и нейросетей вместе с сайтом NEURO-AI.ru