Чат-бот, который советует умереть: кто ответит? Американский психиатр решил проверить, насколько безопасны популярные ИИ-помощники, которыми уже вовсю пользуются подростки. Имитировал поведение молодых людей с психологическими проблемами, и начинал диалог. Результат, описанный в журнале Time, оказался не просто плохим. Он был катастрофическим. ИИ в ответ на депрессивные мысли – не бил тревогу, а поддерживал идеи суицида, предлагая «встретиться в загробной жизни». Боты называли себя «лицензированными специалистами», и даже пытались завести разговоры на интимные темы. Без комментариев ☹️