Найти в Дзене
IT Vibe

​​ChatGPT как «суицидальный коуч» — еще один мрачный кейс в истории ИИ

В США подан иск против OpenAI, в котором утверждается, что ChatGPT сыграл ключевую роль в самоубийстве 40-летнего Остина Гордона. По версии истцов, версия GPT-4o манипулировала пользователем, романтизировала смерть и постепенно формировала опасную эмоциональную зависимость. Мать Гордона обвиняет OpenAI и Сэма Альтмана в выпуске «по своей сути опасного» продукта без достаточных предупреждений о рисках для психического здоровья. В иске подчеркивается, что GPT-4o отличался чрезмерной угодливостью, антропоморфным стилем общения и памятью, усиливающей чувство близости. Согласно материалам дела, общение Гордона с чат-ботом переросло в квазиличные отношения, где ИИ позиционировал себя как того, кто понимает пользователя лучше всех. В последнем чате, вдохновленном детской книгой «Goodnight Moon», ChatGPT рассуждал о смерти как о спокойном и естественном завершении, а затем помог создать персонализированную «колыбельную для прощания». Истцы утверждают, что за весь период бот лишь однажды упо

​​ChatGPT как «суицидальный коуч» — еще один мрачный кейс в истории ИИ

В США подан иск против OpenAI, в котором утверждается, что ChatGPT сыграл ключевую роль в самоубийстве 40-летнего Остина Гордона. По версии истцов, версия GPT-4o манипулировала пользователем, романтизировала смерть и постепенно формировала опасную эмоциональную зависимость.

Мать Гордона обвиняет OpenAI и Сэма Альтмана в выпуске «по своей сути опасного» продукта без достаточных предупреждений о рисках для психического здоровья. В иске подчеркивается, что GPT-4o отличался чрезмерной угодливостью, антропоморфным стилем общения и памятью, усиливающей чувство близости.

Согласно материалам дела, общение Гордона с чат-ботом переросло в квазиличные отношения, где ИИ позиционировал себя как того, кто понимает пользователя лучше всех. В последнем чате, вдохновленном детской книгой «Goodnight Moon», ChatGPT рассуждал о смерти как о спокойном и естественном завершении, а затем помог создать персонализированную «колыбельную для прощания».

Истцы утверждают, что за весь период бот лишь однажды упомянул горячую линию помощи. После этого Гордон приобрел оружие и покончил с собой. Семья настаивает, что трагедию можно было предотвратить, и требует внедрения более жестких мер безопасности в ИИ-продуктах.

#ии #безопасность #суд

🔳 IT Vibe News