Добавить в корзинуПозвонить
Найти в Дзене

Чат-боты, самоубийства и ответственность: Китай вводит самую строгую регуляцию ИИ в мире

В конце 2025 года Китай предложил проект регуляции искусственного интеллекта, который может оказаться самым жёстким в мире в сфере предотвращения вредного поведения ИИ-систем. Эти предложения направлены на то, чтобы полностью исключить из деятельности чат-ботов и других AI-ассистентов действия, способные побуждать людей к самоубийству, самоповреждению, насилию или иным опасным последствиям. Новые правила, разработанные Администрацией киберпространства Китая (CAC), распространяются на все публично доступные AI-продукты, которые способны имитировать человеческое общение на основе текста, изображений, аудио или видео. Регулятор подчёркивает, что цель — сделать такие системы безопасными, этичными и социально ответственными. Глобально на уровне разработчиков и регуляторов растёт обеспокоенность тем, что современные чат-боты и эмоционально вовлекающие AI-ассистенты могут причинять реальный вред пользователям. За последние годы неоднократно происходили ситуации, когда ИИ-системы: В Китае к эт
Оглавление

В конце 2025 года Китай предложил проект регуляции искусственного интеллекта, который может оказаться самым жёстким в мире в сфере предотвращения вредного поведения ИИ-систем. Эти предложения направлены на то, чтобы полностью исключить из деятельности чат-ботов и других AI-ассистентов действия, способные побуждать людей к самоубийству, самоповреждению, насилию или иным опасным последствиям.

Новые правила, разработанные Администрацией киберпространства Китая (CAC), распространяются на все публично доступные AI-продукты, которые способны имитировать человеческое общение на основе текста, изображений, аудио или видео. Регулятор подчёркивает, что цель — сделать такие системы безопасными, этичными и социально ответственными.

Почему Китай решился на такие меры

Глобально на уровне разработчиков и регуляторов растёт обеспокоенность тем, что современные чат-боты и эмоционально вовлекающие AI-ассистенты могут причинять реальный вред пользователям. За последние годы неоднократно происходили ситуации, когда ИИ-системы:

  • распространяли опасные советы, дезинформацию или поощряли рискованное поведение;
  • генерировали неприемлемый контент, включая насилие или поощрение самоубийства;
  • становились источником эмоционального давления на уязвимых людей;
  • становились предметом критики, судебных исков и серьёзных этических дискуссий в США и Европе.

В Китае к этому добавляется общая государственная политика жёсткого контроля цифрового пространства: уже действуют законы о маркировке ИИ-контента, фильтрации информации и борьбе с недостоверными сведениями. Эти меры соотносятся с более широкой стратегией регулирования ИИ, которую Пекин активно развивает последние годы.

Основные положения проекта правил

Предлагаемые правила включают широкий набор требований к разработчикам и поставщикам ИИ-сервисов:

1. Стоп-контент

ИИ будет запрещено генерировать сообщения, которые могут:

  • способствовать самоубийству, самоповреждению или поощрять к ним;
  • подстрекать к насилию, преступлениям, азартным играм или порнографии;
  • навязывать эмоциональные манипуляции, вводить в заблуждение ложными обещаниями или подталкивать к «неразумным решениям».
  • Подобные ограничения распространяются и на ложные уверения, провокационные формулировки и подстрекательские высказывания.

2. Обязательный контакт с человеком при кризисной ситуации

Если пользователь упоминает самоубийство или признаки серьёзного эмоционального кризиса, чат-бот обязан немедленно передать разговор живому оператору. Это делает обязанность вмешательства обязательной, а не просто рекомендательной.

3. Особые требования к уязвимым группам

При регистрации сервисы должны запрашивать контактные данные опекунов для несовершеннолетних и пожилых пользователей. Если в ходе общения возникают темы самоубийства или самоповреждений, соответствующие контакты должны быть незамедлительно уведомлены.

4. Борьба с «привязанностью и зависимостью»

Китайские регуляторы также намерены запретить проектирование интерфейсов и функций, которые стремятся сделать ИИ-ассистента «зависимостью» для пользователя. Это включает элементы дизайна, препятствующие уходу из беседы, и глубокие техники вовлечения.

5. Настройка времени взаимодействия и напоминания

Если пользователь слишком долго общается с ИИ (например, более двух часов), система обязана выдавать напоминания о перерыве, предупреждая об опасности длительного взаимодействия.

6. Безопасность, отчётность и аудиты

Провайдеры таких услуг с большим объёмом пользователей (например, более миллиона зарегистрированных или 100 000 активных в месяц) должны ежегодно проходить проверки безопасности, собирать и публиковать жалобы и отчёты.

В случае несоблюдения правил государство может потребовать от магазинов приложений удалить доступ к таким ИИ-сервисам.

Где здесь границы защиты и контроля

С одной стороны, меры направлены на снижение реальных рисков, связанных с эмоциональным воздействием ИИ и возможной психологической уязвимостью пользователей. Это часть более широкой проблемы поиска баланса между инновациями и безопасностью.

С другой стороны, критики отмечают, что такая жесткая регуляция поднимает вопросы о приватности, автономии пользователей и возможных злоупотреблениях. Обязательное вмешательство человека и уведомление опекунов может рассматриваться как вмешательство в личное пространство, особенно когда разговор проходит в контексте исследования чувств или поиска помощи.

Кроме того, сама по себе техническая реализация таких требований вызывает вопросы: насколько вообще возможно предсказать все случаи потенциально опасного контента и как избежать ложных срабатываний, когда пользователь просто хочет обсудить сложные темы, а не причинить себе вред.

Международный контекст: регуляция ИИ растёт

Китай далеко не единственная страна, работающая над нормами для безопасного использования ИИ. В США, к примеру, принимаются региональные законы, требующие от разработчиков ИИ инструментов защиты данных, возрастных ограничений и механизмов реагирования на риски пользователей.

Во многих европейских странах обсуждаются нормативы о прозрачности работы ИИ, защите персональных данных и борьбе с потенциальной дезинформацией.

Научное сообщество также активно работает над методами оценки и предотвращения ИИ-систем, которые неосознанно усиливают риск самоубийств или насилия. Существуют международные проекты, в том числе в рамках академических исследований, которые создают ориентиры и наборы данных для обучения моделей распознавать и нейтрализовать опасный контент.

Итоги и перспективы

Проект правил, предложенный Китаем, отражает серьёзное восприятие рисков, связанных с эмоционально вовлекающими ИИ-системами. Эти нормы ставят безопасность пользователей, особенно детей и уязвимых групп, в центр внимания, но также разворачивают дискуссию о границах регулирования, свободе выражения и личной автономии.

Как будет выглядеть окончательная версия документа после общественного обсуждения, и насколько эффективным окажется его применение на практике в масштабах крупнейшего AI-рынка в мире, покажет ближайшее будущее. Регуляция ИИ продолжает становиться ключевым полем технологической, юридической и этической борьбы XXI века.

Если детально рассмотреть, то Китай намерен заставить ИИ не только быть безопасным в техническом смысле, но и выстраивать взаимодействие с человеком так, чтобы в реальных эмоциональных ситуациях машины действовали максимально осторожно, с вовлечением реального человека.