Найти в Дзене
Наука и будущее

Подходы к маркировке ИИ-текста

Про разговоры о том, что «скоро обяжут помечать весь текст от ИИ», слышно уже не первый год. Но пока это скорее миф, чем реальность: ни одна крупная юрисдикция не ввела универсального правила «маркировать всё и всегда». Вместо единой кнопки «лейбл для любого случая» государства выбирают разные маршруты — от точечных требований до жёсткого регулирования самих платформ. В Европе ключевой рамкой стал AI Act. Он вводит принцип прозрачности для генеративных систем, но не сводится к требованию ставить отметку на каждом тексте, который помог сделать ИИ. Обязательное раскрытие предполагается прежде всего там, где контент может быть принят за реального человека — deepfake, имитация личности, где он используется для манипуляции и введения в заблуждение, или где создаётся иллюзия «живого» источника там, где его на самом деле нет. На практике это означает довольно простую вещь: художественные тексты, обзоры, статьи и посты, сделанные с помощью ИИ, не обязаны автоматически получать ярлык «написано

Про разговоры о том, что «скоро обяжут помечать весь текст от ИИ», слышно уже не первый год. Но пока это скорее миф, чем реальность: ни одна крупная юрисдикция не ввела универсального правила «маркировать всё и всегда». Вместо единой кнопки «лейбл для любого случая» государства выбирают разные маршруты — от точечных требований до жёсткого регулирования самих платформ.

В Европе ключевой рамкой стал AI Act. Он вводит принцип прозрачности для генеративных систем, но не сводится к требованию ставить отметку на каждом тексте, который помог сделать ИИ. Обязательное раскрытие предполагается прежде всего там, где контент может быть принят за реального человека — deepfake, имитация личности, где он используется для манипуляции и введения в заблуждение, или где создаётся иллюзия «живого» источника там, где его на самом деле нет. На практике это означает довольно простую вещь: художественные тексты, обзоры, статьи и посты, сделанные с помощью ИИ, не обязаны автоматически получать ярлык «написано ИИ». А вот контент, который маскируется под интервью, официальные заявления или под реальных людей, — да. Основные требования начнут применяться с 2026 года, а детали будут уточняться через отраслевые кодексы практики.

Китай пошёл другим путём и выстроил самую жёсткую модель — по сути, первым среди крупных стран превратил маркировку синтетического контента в системную обязанность. С 2025 года там вводятся правила, по которым ИИ-контент должен быть явно обозначен как синтетический, ответственность лежит не только на авторе, но и на платформе, а маркировка может быть как визуальной, так и встроенной — через метаданные. Важная деталь: китайский подход ориентирован не на автора-человека, а на контроль экосистемы. Сервисы генерации, соцсети и хостинги обязаны следить, чтобы синтетический контент не расходился без обозначения. Это вписывается в более широкую политику информационного контроля — там маркировка становится не частной нормой, а элементом управления распространением контента.

В США, наоборот, нет федерального закона, который заставлял бы маркировать весь ИИ-контент. Система выглядит как мозаика из разных механизмов. Федеральные регуляторы делают акцент не на самом факте использования ИИ, а на запрете обмана: если текст, реклама или сообщение вводят людей в заблуждение, это нарушение — независимо от того, применялся ИИ или нет. Параллельно отдельные штаты вводят точечные требования, например для рекламы с «синтетическими персонажами» или для политической агитации. Но единого стандарта «лейбла ИИ» на национальном уровне пока нет — и в ближайшие годы он маловероятен.

Если собрать эти линии в одну картину, то вырисовываются три модели. Европа движется к выборочной обязательной маркировке — там, где возникает риск манипуляции или подмены реальности. Китай делает ставку на тотальный контроль платформ и обязательную маркировку синтетического контента как класса. США, скорее всего, останутся в режиме фрагментарного регулирования: через рекламу, выборы и борьбу с обманом, а не через универсальные ярлыки.

Общее у всех подходов одно: государства всё меньше интересует, как именно создан текст, и всё больше — зачем и в каком контексте он используется. ИИ сам по себе не запрещён, но маскировка под «настоящего человека» и манипуляция доверием становятся красной линией. Именно вокруг этой границы и будут строиться правила ближайших лет.