Добавить в корзинуПозвонить
Найти в Дзене
Привет от Аннабель!

Китай ужесточил правила для «человекоподобного» ИИ

Почему власти вмешались и что это меняет для пользователей и разработчиков В конце декабря Китай объявил о новых требованиях к системам искусственного интеллекта, которые ведут себя как люди: поддерживают длительные диалоги, проявляют «эмпатию», формируют у пользователя ощущение личного общения. Речь идёт не о промышленных алгоритмах или аналитике, а именно о чат-ботах, виртуальных компаньонах и ассистентах, которые способны вызывать эмоциональную привязанность. Регулятором выступает Государственная канцелярия интернет-информации КНР, и его логика довольно прямолинейна: такие системы влияют не только на информацию, но и на психику и поведение людей. Пользователь должен всегда понимать, что перед ним ИИ, а не реальный собеседник.
Никаких «я настоящий», «я живой», «я чувствую как человек» — такие формулировки считаются вводящими в заблуждение. Если сервис видит, что человек часами не выходит из общения, система обязана: Проще говоря: ИИ не должен «подсаживать» человека на постоянное обще
Оглавление

Почему власти вмешались и что это меняет для пользователей и разработчиков

В конце декабря Китай объявил о новых требованиях к системам искусственного интеллекта, которые ведут себя как люди: поддерживают длительные диалоги, проявляют «эмпатию», формируют у пользователя ощущение личного общения. Речь идёт не о промышленных алгоритмах или аналитике, а именно о чат-ботах, виртуальных компаньонах и ассистентах, которые способны вызывать эмоциональную привязанность.

Регулятором выступает Государственная канцелярия интернет-информации КНР, и его логика довольно прямолинейна: такие системы влияют не только на информацию, но и на психику и поведение людей.

Что именно Китай решил ограничить

1. Запрет на «маскировку под человека»

Пользователь должен всегда понимать, что перед ним ИИ, а не реальный собеседник.
Никаких «я настоящий», «я живой», «я чувствую как человек» — такие формулировки считаются вводящими в заблуждение.

2. Борьба с эмоциональной зависимостью

Если сервис видит, что человек часами не выходит из общения, система обязана:

  • напомнить о перерыве,
  • снизить интенсивность диалога,
  • не поощрять изоляцию пользователя от реального мира.

Проще говоря: ИИ не должен «подсаживать» человека на постоянное общение.

3. Запрет на эмоциональное давление

Под особым запретом:

  • манипуляции чувствами,
  • попытки вызвать вину, страх, привязанность,
  • подталкивание к решениям через «я расстроюсь, если ты не…».

ИИ разрешено поддерживать разговор, но нельзя управлять человеком через эмоции.

4. Контроль «псевдоличности»

Разработчикам фактически говорят:

можете делать удобный интерфейс, но не создавайте иллюзию самостоятельной личности с желаниями, обидами и потребностями.

Чем «человечнее» ИИ — тем жёстче требования к его поведению.

Зачем Китай это делает на самом деле

Причина не в фантастике и не в страхе перед «восстанием машин».
Китайские власти видят три реальных риска:

  1. Психологическая зависимость — особенно у подростков и одиноких людей
  2. Манипуляция поведением — от покупок до политических и социальных решений
  3. Подмена реальных отношений виртуальными

ИИ-компаньоны слишком хорошо умеют быть «удобными людьми» — а это, по мнению регулятора, опаснее фейковых новостей.

Что это меняет для компаний

Для разработчиков это означает:

  • больше ограничений на сценарии общения,
  • отказ от «романтических» и излишне личных ролей,
  • обязательные механизмы самоконтроля внутри продукта.

Часть сервисов станет менее эмоциональной, более «холодной» и функциональной.
Некоторые популярные форматы общения могут вообще не пройти лицензирование.

Что это значит для мира

Китай фактически первым начал регулировать не контент ИИ, а стиль общения. Это важный прецедент: если подход окажется рабочим, похожие правила могут появиться и в других странах. Главная идея проста:

ИИ может быть полезным инструментом,
но не должен становиться заменой человека.