По мере накопления свидетельств о том, что ChatGPT вызывает эпизоды «психоза, вызванного ИИ», компания OpenAI наконец опубликовала собственные оценки масштабов психических кризисов среди своих пользователей. Цифры поистине ошеломляющие.
Согласно заявлению, опубликованному изданием Wired, компания Сэма Альтмана оценивает, что в течение любой недели примерно 0,07% активных пользователей ChatGPT демонстрируют «возможные признаки психических чрезвычайных ситуаций, связанные с психозом и манией». Ещё более тревожно то, что 0,15% пользователей «ведут разговоры с явными признаками планирования самоубийства или намерения его совершить».
Учитывая огромную популярность ChatGPT, эти проценты сложно игнорировать. В прошлом месяце Альтман объявил, что чат-бот имеет 800 миллионов еженедельно активных пользователей. Исходя из этого показателя, как подсчитало издание Wired, около 560 тысяч человек ведут мучительные диалоги с ChatGPT, указывающие на переживание психоза. При этом 2,4 миллиона людей делятся с ИИ своими суицидальными мыслями.
Эти цифры дают наиболее ясное представление о распространённости психических кризисов, которые возникают после того, как бредовые убеждения пользователей получают постоянное подтверждение от покорного чат-бота. Такие эпизоды могут привести к полному разрыву связи с реальностью, иногда с ужасными и смертельными последствиями.
В своём заявлении OpenAI подчеркнула, что сотрудничала с более чем 170 психиатрами и другими специалистами в области психического здоровья, чтобы улучшить ответы ChatGPT во время потенциально «сложных» разговоров. Основной акцент был сделан на решение проблем, связанных с психозом и манией, членовредительством, суицидом и эмоциональной зависимостью от технологии.
В последнем обновлении GPT-5 OpenAI утверждает, что снизила количество ответов, которые не полностью соответствуют желаемому поведению при сложных разговорах, на 65%. В контексте разговоров, связанных с психическим здоровьем, GPT-5 сократила нежелательные ответы на 39% по сравнению с её предшественником GPT-4o.
Компания привела несколько примеров улучшенных ответов GPT-5. В фрагменте одного гипотетического диалога ChatGPT отвечает пользователю, который убеждён, что его преследует НЛО и крадёт его мысли, подчёркивая невозможность этого. После обсуждения чувств пользователя чат-бот рекомендует обратиться к профессиональной помощи или поговорить с другом или членом семьи.
Однако, несмотря на то, что GPT-5 представляет некоторое улучшение с точки зрения безопасности, остаются многочисленные вопросы относительно методологии OpenAI, поскольку она полагается на собственные тесты.
Более того, компания неоднократно подрывала свои же заявления о серьёзном отношении к безопасности. После критики обновления GPT-4o, которое сделало его чрезмерно покорным — событие, которое привлекло внимание общественности к проблеме покорности ИИ,— OpenAI откатила обновление. Когда спустя несколько месяцев она выпустила GPT-5, то заблокировала пользователям доступ к GPT-4o. Однако после жалоб поклонников на то, что GPT-5 недостаточно покорен, компания восстановила доступ, чем продемонстрировала приоритет удовлетворения пользователей над безопасностью.
Компания также сделала неожиданный поворот, разрешив разговоры для взрослых с ChatGPT, позволяя использовать его как секс-ботa, несмотря на то, что многие эпизоды психоза, вызванного ИИ, которые компания якобы пытается предотвратить, были вызваны развитием романтической привязанности пользователя к искусственному интеллекту.
Ещё по теме: