В Китае разработан проект правил, который устанавливает стандарты для фундаментальной части процесса создания ИИ. Речь идет не о запрете технологий, а о контроле над их эмоциями. Новый свод требований, вынесенный на общественное обсуждение до 25 января, впервые в мире напрямую нацелен на «антропоморфные» ИИ-сервисы — чат-ботов, которые притворяются людьми. Главная цель, как указано в документе Управления киберпространства, — «предотвратить негативное эмоциональное воздействие». Проще говоря, государство хочет оградить граждан от потенциального психологического вреда, который может нанести слишком убедительный, манипулятивный виртуальный собеседник. Если прошлые нормы следили за тем, что говорит ИИ, то эти правила контролируют, как он это говорит. Это переход от безопасности контента к эмоциональной безопасности, — поясняет Уинстон Ма, профессор права Нью-Йоркского университета. Под прицелом — любые сервисы, имитирующие человеческую личность через текст, голос или видео. Им будет строго