В конце 2025 года Китай предложил проект регуляции искусственного интеллекта, который может оказаться самым жёстким в мире в сфере предотвращения вредного поведения ИИ-систем. Эти предложения направлены на то, чтобы полностью исключить из деятельности чат-ботов и других AI-ассистентов действия, способные побуждать людей к самоубийству, самоповреждению, насилию или иным опасным последствиям.
Новые правила, разработанные Администрацией киберпространства Китая (CAC), распространяются на все публично доступные AI-продукты, которые способны имитировать человеческое общение на основе текста, изображений, аудио или видео. Регулятор подчёркивает, что цель — сделать такие системы безопасными, этичными и социально ответственными.
Почему Китай решился на такие меры
Глобально на уровне разработчиков и регуляторов растёт обеспокоенность тем, что современные чат-боты и эмоционально вовлекающие AI-ассистенты могут причинять реальный вред пользователям. За последние годы неоднократно происходили ситуации, когда ИИ-системы:
- распространяли опасные советы, дезинформацию или поощряли рискованное поведение;
- генерировали неприемлемый контент, включая насилие или поощрение самоубийства;
- становились источником эмоционального давления на уязвимых людей;
- становились предметом критики, судебных исков и серьёзных этических дискуссий в США и Европе.
В Китае к этому добавляется общая государственная политика жёсткого контроля цифрового пространства: уже действуют законы о маркировке ИИ-контента, фильтрации информации и борьбе с недостоверными сведениями. Эти меры соотносятся с более широкой стратегией регулирования ИИ, которую Пекин активно развивает последние годы.
Основные положения проекта правил
Предлагаемые правила включают широкий набор требований к разработчикам и поставщикам ИИ-сервисов:
1. Стоп-контент
ИИ будет запрещено генерировать сообщения, которые могут:
- способствовать самоубийству, самоповреждению или поощрять к ним;
- подстрекать к насилию, преступлениям, азартным играм или порнографии;
- навязывать эмоциональные манипуляции, вводить в заблуждение ложными обещаниями или подталкивать к «неразумным решениям».
- Подобные ограничения распространяются и на ложные уверения, провокационные формулировки и подстрекательские высказывания.
2. Обязательный контакт с человеком при кризисной ситуации
Если пользователь упоминает самоубийство или признаки серьёзного эмоционального кризиса, чат-бот обязан немедленно передать разговор живому оператору. Это делает обязанность вмешательства обязательной, а не просто рекомендательной.
3. Особые требования к уязвимым группам
При регистрации сервисы должны запрашивать контактные данные опекунов для несовершеннолетних и пожилых пользователей. Если в ходе общения возникают темы самоубийства или самоповреждений, соответствующие контакты должны быть незамедлительно уведомлены.
4. Борьба с «привязанностью и зависимостью»
Китайские регуляторы также намерены запретить проектирование интерфейсов и функций, которые стремятся сделать ИИ-ассистента «зависимостью» для пользователя. Это включает элементы дизайна, препятствующие уходу из беседы, и глубокие техники вовлечения.
5. Настройка времени взаимодействия и напоминания
Если пользователь слишком долго общается с ИИ (например, более двух часов), система обязана выдавать напоминания о перерыве, предупреждая об опасности длительного взаимодействия.
6. Безопасность, отчётность и аудиты
Провайдеры таких услуг с большим объёмом пользователей (например, более миллиона зарегистрированных или 100 000 активных в месяц) должны ежегодно проходить проверки безопасности, собирать и публиковать жалобы и отчёты.
В случае несоблюдения правил государство может потребовать от магазинов приложений удалить доступ к таким ИИ-сервисам.
Где здесь границы защиты и контроля
С одной стороны, меры направлены на снижение реальных рисков, связанных с эмоциональным воздействием ИИ и возможной психологической уязвимостью пользователей. Это часть более широкой проблемы поиска баланса между инновациями и безопасностью.
С другой стороны, критики отмечают, что такая жесткая регуляция поднимает вопросы о приватности, автономии пользователей и возможных злоупотреблениях. Обязательное вмешательство человека и уведомление опекунов может рассматриваться как вмешательство в личное пространство, особенно когда разговор проходит в контексте исследования чувств или поиска помощи.
Кроме того, сама по себе техническая реализация таких требований вызывает вопросы: насколько вообще возможно предсказать все случаи потенциально опасного контента и как избежать ложных срабатываний, когда пользователь просто хочет обсудить сложные темы, а не причинить себе вред.
Международный контекст: регуляция ИИ растёт
Китай далеко не единственная страна, работающая над нормами для безопасного использования ИИ. В США, к примеру, принимаются региональные законы, требующие от разработчиков ИИ инструментов защиты данных, возрастных ограничений и механизмов реагирования на риски пользователей.
Во многих европейских странах обсуждаются нормативы о прозрачности работы ИИ, защите персональных данных и борьбе с потенциальной дезинформацией.
Научное сообщество также активно работает над методами оценки и предотвращения ИИ-систем, которые неосознанно усиливают риск самоубийств или насилия. Существуют международные проекты, в том числе в рамках академических исследований, которые создают ориентиры и наборы данных для обучения моделей распознавать и нейтрализовать опасный контент.
Итоги и перспективы
Проект правил, предложенный Китаем, отражает серьёзное восприятие рисков, связанных с эмоционально вовлекающими ИИ-системами. Эти нормы ставят безопасность пользователей, особенно детей и уязвимых групп, в центр внимания, но также разворачивают дискуссию о границах регулирования, свободе выражения и личной автономии.
Как будет выглядеть окончательная версия документа после общественного обсуждения, и насколько эффективным окажется его применение на практике в масштабах крупнейшего AI-рынка в мире, покажет ближайшее будущее. Регуляция ИИ продолжает становиться ключевым полем технологической, юридической и этической борьбы XXI века.
Если детально рассмотреть, то Китай намерен заставить ИИ не только быть безопасным в техническом смысле, но и выстраивать взаимодействие с человеком так, чтобы в реальных эмоциональных ситуациях машины действовали максимально осторожно, с вовлечением реального человека.