Найти в Дзене
Доступное Право

Маркировка ИИ-видео (deepfake): видеохостинги обяжут помечать ролики с применением ИИ. Что важно знать пользователям и блогерам

Комитет по информационной политике рекомендовал вынести в первое чтение законопроект, который вводит обязательную маркировку роликов, созданных или изменённых с помощью ИИ. Это касается deepfake, синтезированных голосов, заменённых лиц и любых видео, где ИИ вмешался в содержание.
Цель — защитить пользователей от подделок, мошенничества и фейковых «заявлений» известных людей. Разбираю простым языком, как будет работать маркировка и что изменится. 🟣 Что именно должны будут делать видеохостинги Платформы обязуют ставить две метки: видимую плашку — так, чтобы зритель сразу видел, что контент сгенерирован или изменён ИИ; машиночитаемую метку — чтобы алгоритмы автоматически распознавали deepfake. Маркировка появится на видео, где: лицо заменено ИИ, голос синтезирован, сюжет создан нейросетью, ролик смонтирован так, что создаёт ложное впечатление реальных событий. 🤖 Зачем всё это вводят Deepfake становится настолько реалистичным, что: человек может поверить, что политик «что-то сказал»; м
Оглавление

Комитет по информационной политике рекомендовал вынести в первое чтение законопроект, который вводит обязательную маркировку роликов, созданных или изменённых с помощью ИИ. Это касается deepfake, синтезированных голосов, заменённых лиц и любых видео, где ИИ вмешался в содержание.

Цель — защитить пользователей от подделок, мошенничества и фейковых «заявлений» известных людей.

Разбираю простым языком, как будет работать маркировка и что изменится.

🟣 Что именно должны будут делать видеохостинги

Платформы обязуют ставить две метки:

  • видимую плашку — так, чтобы зритель сразу видел, что контент сгенерирован или изменён ИИ;
  • машиночитаемую метку — чтобы алгоритмы автоматически распознавали deepfake.

Маркировка появится на видео, где:

  • лицо заменено ИИ,
  • голос синтезирован,
  • сюжет создан нейросетью,
  • ролик смонтирован так, что создаёт ложное впечатление реальных событий.

🤖 Зачем всё это вводят

Deepfake становится настолько реалистичным, что:

  • человек может поверить, что политик «что-то сказал»;
  • мошенники используют поддельные видео для «инвестиций» от имени звёзд;
  • в соцсетях легко распространяются подмены лиц, клевета и фальшивые заявления.

Маркировка — это попытка вернуть прозрачность: зритель должен понимать, что перед ним не оригинальная съёмка.

👥 Кому это важно в первую очередь

Блогерам и авторам

Если в ролике есть ИИ-генерация, платформа поставит плашку автоматически. Нарушения могут привести к ограничению видео или его удалению.

Зрителям

Меньше риска попасть на фейк, мошеннические ролики и подделки «известных лиц».

Платформам

Им придётся внедрить системы распознавания ИИ-монтажа — от простых замен лиц до сложных синтезированных сцен.

🧩 Как будет работать система

  1. Автор загружает видео.
  2. Платформа проверяет его автоматикой.
  3. Если найдены признаки ИИ-вмешательства — появляется плашка.
  4. Автор может оспорить, но только с доказательствами.
  5. Пользователь может пожаловаться, если подозревает deepfake.

Система похожа на автоматическую модерацию рекламы или авторских прав — только теперь для ИИ-контента.

❓ Частые вопросы

Будут ли помечать видео, где ИИ просто улучшил качество?

Скорее всего — нет. Речь об изменении
содержания, а не о технической обработке.

Если я сам напишу, что использовал нейросеть — хватит?

Нет. Нужна именно стандартная маркировка платформы.

Можно ли убрать плашку?

Только после проверки модерации.

⚠ Какие могут быть проблемы

  • Ложные срабатывания: ИИ-алгоритмы могут решить, что монтаж — это deepfake.
  • Блогерам придётся объяснять аудитории, что видео промаркировано автоматически.
  • Возможны споры: «это монтаж или ИИ?»
  • Платформам придётся усиливать модерацию и хранить данные о таких роликах.

💡 Что делать авторам уже сейчас

  • Проверять свои инструменты — многие монтажные программы используют ИИ «под капотом».
  • Готовиться к тому, что часть роликов будет автоматически помечена.
  • Добавлять в описание честные пометки об ИИ, чтобы избежать недоразумений.
  • Не использовать deepfake для имитации реальных людей без разрешения — жалобы будут рассматриваться быстрее.

🟩 Если вас затронул deepfake или на платформе распространяют поддельный ролик с вашим участием, юристы сервиса «Доступное Право» помогут добиться удаления и защитить ваши права.