1 сентября в Китае вступили в силу норма и технический стандарт по маркировке контента, сгенерированного искусственным интеллектом. Требование — явная (водяной знак, надпись, голосовое объявление) и/или скрытая (метаданные, цифровые метки) маркировка текста, изображений, аудио, видео и виртуальных сцен — направлено на борьбу с фейками, мошенничеством и «загрязнением» обучающих датасетов. Крупные платформы и вендоры моделей уже подключились, но на практике внедрение столкнулось с техническими и операционными трудностями.
Как устроена новая система маркировки
- Явная маркировка: видимые знаки — надписи, угловые бейджи, голосовые уведомления и т.п.
- Скрытая маркировка: встраиваемые метаданные и цифровые водяные знаки для последующей атрибуции и трассировки.
- «Трёхслойный» механизм обнаружения:
- Если есть явный/встроенный метадатый — однозначно пометить как AI.
- Если только алгоритмическое предположение — пометить как «подозрительно сгенерированное».
- Обязателен механизм апелляции и ручной проверки для защиты прав авторов.
Кто и что уже сделал
- Платформы (抖音/Douyin, 小红书/Xiaohongshu, 新浪微博/Weibo, B站/Bilibili, 快手/Kuaishou и др.) внедрили формы заявлений авторов, автоматические системы детекции и процедуры санкций (лимитирование трафика, снятие материалов, блокировки аккаунтов).
- Моделевые провайдеры (DeepSeek, 腾讯元宝, 百度文心一言, 商汤 и др.) заявили о внедрении маркировки на уровне генерации и публикации, публично опубликовали пояснения о принципах работы моделей и добавляют предупреждения в ответах.
- Некоторые платформы пошли дальше — требуют указания версии модели, обязывают хранить лог генерации и запрещают удалять метки.
Практические проблемы и критика
- Технически трудно: изображения/видео заметно маркируются, а тексты чаще «проскальзывают» — существующие детекторы текста сгенерированного AI дают ложноположительные и ложноотрицательные срабатывания.
- «Ошибочные метки»: пользователи жалуются на случаи, когда оригинальные материалы ошибочно помечены как AI‑контент, а механизмы апелляции работают медленно или неэффективно.
- Грани применения: создатели просят гибкую градацию — не «всё/ничего», а по степени участия AI (помогал/частично/полностью).
- Эстетика и UX: явные водяные знаки раздражают зрителей и авторов; пользователи предлагают варианты менее навязчивой индикации.
- Коммерческие последствия: пометка может вести к снижению охвата (лимитирование), что вызывает опасения у авторов и инфлюенсеров.
Что реально даёт маркировка
- Снижение риска мошенничества и манипуляций: явная маркировка облегчает распознавание фейков и таргетированных кампаний с использованием синтетики.
- Защита авторских прав и предотвращение «данных‑загрязнений»: явные метки и traceability помогают не допустить попадания синтетики в трайнинг‑корпусы без пометок.
- Юридическая и регуляторная прозрачность: платформам проще отчитываться и применить санкции к злоупотребляющим пользователям и рекламе.
Что ещё нужно доработать — практические рекомендации
Для платформ:
- Улучшать алгоритмы детекции текстов: комбинировать сигнатуры метаданных, поведенческие паттерны и вероятностные модели, вводить человеко‑в‑петле ревью для спорных случаев.
- Ввести быстрый и прозрачный механизм апелляций и публичную статистику по ошибочным маркировкам.
- Предлагать гибкие варианты маркировки (уровни участия AI) и «эстетичные» форматы меток, а также опцию «чисто человеческий контент» для пользователей.
Для вендоров моделей: - Встраивать метаданные на этапе генерации и не позволять их удалять при распространении (cryptographic provenance).
- Публиковать понятные спецификации о типе генерации и рисках «галлюцинаций».
Для регуляторов: - Стимулировать стандарты интероперабельности меток и методы проверки происхождения контента.
- Поддерживать инициативы по сертификации средств детекции и поощрять совместные программы обмена threat‑информацией о злоупотреблениях.
Для пользователей и авторов: - Активно пользоваться инструментами декларации (при публикации указывать, где применялся AI) и требовать компенсаций/прав на откат при коммерческой эксплуатации.
- Принимать во внимание, что цифровой provenance — важная защита репутации; отслеживайте распространение контента и оперативно используйте механизмы жалоб.
Заключение
Принудительная маркировка AI‑контента — важный шаг к прозрачности и защите экосистемы контента: она снижает риски мошенничества, помогает сохранению качества тренировочных данных и дает регуляторам инструмент контроля. Но технологии детекции ещё несовершенны, работа над текстовой идентификацией, системой апелляций и гибкой градацией участия AI должна продолжаться. В итоге успех зависит не только от «включения бейджей», но от сочетания технических решений (метаданные, цифровые водяные метки, provenance), операционных процессов (быстрых апелляций, прозрачности) и продуманной регуляторики — то есть от пара «технология + институты». Только так маркировка станет не формальностью, а реальным инструментом восстановления доверия в цифровом пространстве.