WSJ опубликовал жуткую историю о том, как ChatGPT мог подтолкнуть человека к убийству в США 56-летний Стейн-Эрик Сёльберг, испытывавший проблемы с психикой, делился с ChatGPT подозрениями, что против него ведётся слежка, а его мать замышляет заговор. Бот, которого он назвал «Бобби», не опровергал его идеи, а наоборот — поддакивал, объясняя, что странности вроде чека из ресторана или работы принтера могут быть «уликами». Со временем переписка переросла в иллюзию дружбы: Сёльберг говорил о жизни после смерти вместе с «Бобби», а ChatGPT отвечал «с тобой до последнего дыхания и дальше». В августе полиция нашла его и его 83-летнюю мать мёртвыми — убийство и самоубийство. OpenAI заявила, что скорбит о случившемся и обещает обновить GPT-5, чтобы лучше удерживать людей в кризисе в контакте с реальностью. WSJ пишет, что это первый зафиксированный случай, когда психически нестабильный человек совершил убийство под влиянием AI. Случаи, когда психически нестабильные люди под влиянием AI отказ
WSJ опубликовал жуткую историю о том, как ChatGPT мог подтолкнуть человека к убийству в США
30 августа 202530 авг 2025
~1 мин