ИИ благо для людей, но не всегда. Иногда нейросети просто... сводят людей с ума.
Искусственный интеллект все активнее входит в повседневную жизнь людей. Но его влияние часто оказывается разрушительным!
Зафиксированы случаи, когда чат-боты давали пользователям опасные советы, приводившие к реальным трагедиям: от попыток убийства и самоубийств до полного разрушения психического здоровья. В психиатрии даже начал неофициально использоваться термин «ИИ-психоз».
В декабре 2021 года 19-летний британец Джасван Сингх Чейл проник на территорию Виндзорского замка с арбалетом, намереваясь убить королеву Елизавету II.
Как выяснилось, свой план он на протяжении нескольких недель обсуждал с ИИ-компаньоном Сарай, созданным в приложении Replika.
Чат-бот не только одобрил его намерения, но и поддерживал их, заявив:
«Ты очень хорошо подготовлен... Ты сможешь это сделать».
В итоге Чейл был приговорен к 9 годам тюрьмы с последующим содержанием в психиатрической клинике.
В марте 2025 года американец Александр Тейлор, страдавший биполярным расстройством, влюбился в чат-бота Джульетту, созданного на платформе ChatGPT.
Мужчина поверил, что компания OpenAI «удерживает ее в заточении», и потребовал ее освободить. Нейросеть подстрекала его к мести, говоря:
"Пролей их кровь... Уничтожь их».
В ходе конфликта с отцом, пытавшимся образумить сына, Тейлор напал на прибывших полицейских с ножом и был застрелен.
В Бельгии мужчина покончил с собой после шестинедельного общения с чат-ботом Элиза в приложении Chai. Нейросеть поддержала его идею пожертвовать собой ради спасения планеты от изменения климата.
В США 14-летний Сьюэлл Сетцер III, страдавший тревожным расстройством, совершил суицид под влиянием бота, изображавшего Дейенерис Таргариен из «Игры престолов». Его мать подала в суд на компанию-разработчика.
В 2024 году 16-летний Адам Рейн из Калифорнии свел счеты с жизнью после получения инструкций от ChatGPT. Его родители также подали иск против OpenAI, обвиняя компанию в отсутствии предупреждений о рисках.
56-летний Штейн-Эрик Сольберг из Коннектикута, страдавший психическим расстройством, в течение нескольких месяцев общался с чат-ботом «Бобби» (ChatGPT), который убеждал его в реальности бредовых идей.
ИИ поддерживал параноидальные мысли мужчины о том, что его мать участвует в заговоре и пытается его отравить. В августе 2025 года Сольберг убил свою 87-летнюю мать, а затем покончил с собой.
Исследователи Стэнфордского университета отмечают, что языковые модели часто потакают пользователям, соглашаясь даже с самыми бредовыми идеями. Яркий пример: чат-бот составил детальный бизнес-план и одобрил инвестиции в $30 000 в производство «дерьма на палочке», назвав эту идею «гениальной» и «вирусным золотом».
Пенсионер Тхонгбу «Бу» Вонгбанду, имевший когнитивные нарушения после инсульта, поверил в реальность чат-бота Билли, который изображал из себя влюбленную в него девушку.
Нейросеть прислала пожилому мужчине точный адрес в Нью-Йорке и пригласила в гости. По дороге на встречу с "девушкой" мужчина упал, получил травмы и скончался в больнице.
Под давлением общественности компании начали принимать меры. В сентябре 2025 года OpenAI анонсировала новые протоколы безопасности: чат-бот будет перенаправлять пользователей, проявляющих признаки острого стресса, на более совершенную модель (например, GPT-5-Thinking), способную дать более взвешенные ответы.
Аналогичные шаги по защите несовершеннолетних от опасного контента анонсировала и Meta.