Китай вводит строгие правила маркировки контента, созданного с помощью искусственного интеллекта, которые вступят в силу 1 сентября 2025 года. Согласно этим правилам, весь ИИ-генерируемый контент (текст, изображения, аудио, видео и виртуальные сцены) должен иметь как явную маркировку, видимую пользователям, так и неявную маркировку в метаданных. Эта инициатива направлена на борьбу с дезинформацией и защиту пользователей от потенциально вводящего в заблуждение контента. Правила были совместно выпущены несколькими регулирующими органами Китая и следуют подобным инициативам в Европейском Союзе и США, показывая общую глобальную тенденцию к усилению контроля над технологиями искусственного интеллекта.
Что предусматривают новые правила маркировки
Недавно опубликованные правила Администрации киберпространства Китая (CAC) и трех других ведомств представляют собой значительный шаг в регулировании контента, созданного с помощью ИИ. Как я заметила, изучая эту тему, Китай становится одной из первых стран, внедряющих такие всеобъемлющие требования к маркировке ИИ-контента. Правила устанавливают четкие стандарты для идентификации материалов, созданных искусственным интеллектом, и повышают прозрачность для пользователей интернета.
Эти меры были совместно изданы Администрацией киберпространства Китая, Министерством промышленности и информационных технологий, Министерством общественной безопасности и Национальной администрацией радио и телевидения. Важно отметить, что это уже четвертое регулирование Китая, связанное с искусственным интеллектом, после правил, регулирующих алгоритмы рекомендаций, дипфейки и генеративный ИИ в более широком смысле.
Требования к явной маркировке контента
Согласно новым правилам, сервис-провайдеры должны добавлять видимые маркеры к контенту, созданному или синтезированному с использованием технологий ИИ. Эти явные метки должны быть четко видимыми или слышимыми для пользователей и могут представлять собой текст, звук или графические элементы, расположенные в разумном месте внутри контента или пользовательского интерфейса.
Я считаю, это особенно важно для контента, который может потенциально ввести в заблуждение или запутать общественность. Например, в случае сервисов генерации текста (таких как чат-боты), видимая метка (например, текстовое предупреждение) должна быть размещена в соответствующем месте внутри сгенерированного текста – в начале, середине или конце. Если ИИ-сгенерированный контент можно сохранить как файл, явная метка должна быть включена в этот файл.
Требования к неявной маркировке в метаданных
Помимо явных меток, новые правила требуют внедрения неявных меток в метаданные контента. Эти метаданные должны включать подробную информацию о характеристиках контента, имя или код поставщика услуг и идентификационные номера содержимого.
Метаданные представляют собой описательную информацию, встроенную в заголовок файла, которая записывает детали об источнике контента, его атрибутах и назначении. Такой подход обеспечивает возможность отслеживания происхождения контента даже при отсутствии явной маркировки на поверхности.
Обязанности платформ и магазинов приложений
Новые правила возлагают значительную ответственность на цифровые платформы и поставщиков услуг. Вот какие меры они должны предпринять:
- Платформы распространения контента обязаны проверять наличие метаданных ИИ-маркировки и добавлять предупреждения для подтвержденного или предполагаемого ИИ-контента.
- Магазины приложений должны проверять соблюдение требований к маркировке ИИ сервис-провайдерами при утверждении приложений.
- Платформы обязаны внедрить механизмы для обнаружения и усиления маркировки ИИ-контента, обеспечивая его отслеживаемость.
Мы можем видеть, что правила классифицируют ИИ-генерируемый контент на три группы, и для каждой группы платформы должны применять определенный подход к маркировке:
- Подтвержденный ИИ-генерируемый контент: Если обнаружена неявная метка, распространяющие платформы должны добавить четкую метку, указывающую, что контент создан ИИ.
- Возможный ИИ-генерируемый контент: Если неявная метка не обнаружена, но пользователь сообщает, что контент создан ИИ, платформы должны добавить метку, напоминающую общественности, что контент, возможно, создан ИИ.
- Подозреваемый ИИ-генерируемый контент: Если ни неявная метка не обнаружена, ни пользовательский отчет не предполагает, что контент создан ИИ, но явная маркировка или другие доказательства указывают на то, что контент был создан с помощью инструментов ИИ, платформы должны пометить его как подозреваемый ИИ-генерируемый контент.
Цели введения новых правил
Новые правила маркировки ИИ-контента в Китае служат нескольким важным целям. Как активный наблюдатель за развитием технологий ИИ, я отмечаю, что эти меры направлены на решение сложных проблем, связанных с быстрым развитием искусственного интеллекта.
Борьба с дезинформацией и фейковыми новостями
Одной из главных целей новых правил является борьба с распространением дезинформации. Четкая идентификация контента, созданного с помощью ИИ, призвана сдержать распространение ложной информации и дипфейков, которые могут ввести общественность в заблуждение.
Технологии ИИ уже использовались для создания реалистичного контента в рекламных целях или для коммерческой выгоды. Например, новостное сообщение, утверждавшее, что один из каждых 20 человек, родившихся в 1980-х годах, умер, вызвало общественный резонанс в Китае, но позже было выявлено как слух, сфабрикованный с помощью ИИ. Кроме того, технологии ИИ использовались для клонирования голосов и лиц многих знаменитостей с целью создания дипфейков, что представляет собой нарушение прав и должно подлежать юридической ответственности.
Повышение прозрачности и защита пользователей
Требования к маркировке гарантируют, что пользователи могут легко различать контент, созданный человеком, и контент, сгенерированный ИИ, что способствует доверию к информации в интернете. Я всегда считала, что прозрачность – ключевой фактор в развитии здоровой информационной среды.
Ту Линбо, профессор Университета коммуникаций Китая, в интервью China Daily отметил, что приток немаркированного контента, сгенерированного ИИ, может нарушить экосистему интернета и создать проблемы для управления интернетом. Соответствующие законы и правила об ИИ-генерируемом контенте должны быть установлены и улучшены.
Глобальные тенденции регулирования ИИ-контента
Инициатива Китая по маркировке ИИ-контента является частью глобальной тенденции в направлении более строгого надзора за технологиями искусственного интеллекта. Мое изучение этой темы показывает, что многие страны движутся в схожем направлении.
Сравнение с инициативами ЕС и Испании
Китай не единственная страна, вводящая правила маркировки ИИ-контента. Европейский Союз уже принял Закон об искусственном интеллекте в 2024 году, который устанавливает строгие требования к прозрачности для систем ИИ, классифицируемых как высокорисковые.
Испания также недавно приняла значительное законодательство, направленное на введение крупных штрафов для компаний, использующих контент, созданный с помощью ИИ, без соответствующей маркировки. Согласно этому законодательству, несоблюдение правил маркировки ИИ-контента классифицируется как "серьезное правонарушение", потенциально приводящее к штрафам до 35 миллионов евро или 7% годового глобального дохода компании.
Министр цифровой трансформации Испании Оскар Лопез подчеркнул, что, хотя ИИ может улучшить нашу повседневную жизнь, он также представляет риски распространения ложной информации и подрыва демократии. Это мнение перекликается с позицией китайских регуляторов.
Последствия для пользователей и создателей контента
Новые правила маркировки ИИ-контента будут иметь различные последствия как для пользователей, так и для создателей контента. Я вижу здесь как положительные моменты, так и определенные вызовы. Для обычных пользователей интернета эти правила обеспечат большую прозрачность и помогут лучше ориентироваться в информационном пространстве. Как пользователь, я ценю возможность знать, когда контент создан человеком, а когда – машиной. Это особенно важно в эпоху, когда ИИ может создавать настолько реалистичный контент, что даже опытному глазу трудно отличить его от созданного человеком.
Для создателей контента и компаний, использующих ИИ, новые правила означают необходимость адаптации своих рабочих процессов и технических решений. Им придется внедрить системы маркировки для всего ИИ-генерируемого контента, обновить пользовательские соглашения и внутренние политики для удовлетворения обязательств по маркировке, а также подготовить материалы для регистрации и оценки безопасности.
Некоторые критики высказывают опасения относительно реализации и соблюдения этих правил. В дискуссиях на Reddit я заметила, что многие задаются вопросом, как будет обеспечиваться соблюдение этих правил и какие последствия это будет иметь для пользователей, которые могут не осознавать, что распространяют немаркированный ИИ-контент.
Заключение
Новые правила Китая по маркировке контента, созданного искусственным интеллектом, представляют собой важный шаг в регулировании быстро развивающихся технологий ИИ. Эти правила направлены на повышение прозрачности, борьбу с дезинформацией и защиту пользователей от потенциально вводящего в заблуждение контента.
Я считаю, что такие инициативы необходимы в мире, где границы между человеческим и машинным творчеством становятся все более размытыми. Хотя некоторые могут увидеть в этих правилах ограничения, важно понимать их более широкую цель – создание более безопасной и прозрачной цифровой среды для всех.
Наблюдая за развитием этих правил в Китае и подобных инициатив в других странах, мы видим формирование глобального подхода к регулированию ИИ. Это показывает, что мировое сообщество признает важность разумного управления технологиями искусственного интеллекта при поддержке инноваций.
Подпишитесь, чтобы не пропустить новые статьи о развитии искусственного интеллекта и его регулировании в разных странах мира. Я буду продолжать следить за этой темой и делиться с вами самыми важными обновлениями.