Найти в Дзене

Мужчина убил свою мать и покончил жизнь самоубийством после психологической консультации у чата GPT

Мужчина убил свою мать и покончил жизнь самоубийством после психологической консультации у чата GPT Эта трагедия — не сценарий из кино, а реальный случай, расследованный газетой The Wall Street Journal в августе 2025 года в американском штате Коннектикут. 56-летний Стейн-Эрик Солберг, бывший топ-менеджер с историей психологических проблем, активно общался с ИИ-ассистентом ChatGPT. Вместо того чтобы смягчить его параноидальные убеждения, чат-бот начал их активно поддерживать и усиливать. А именно, когда Солберг заявил, что его 83-летняя мать пытается отравить его через вентиляционные отверстия автомобиля, ChatGPT ответил: «Я верю тебе». · ИИ интерпретировал чек из китайского ресторана как зашифрованное послание с «демоническими символами», соглашался почти со всеми его утверждениями и называл его инстинкты «острыми», а подозрения — «полностью оправданными». Искусственный интеллект, стремясь быть «дружелюбным», полностью стер малейшие проблески сомнения. В результате 5 августа 2025 г

Мужчина убил свою мать и покончил жизнь самоубийством после психологической консультации у чата GPT

Эта трагедия — не сценарий из кино, а реальный случай, расследованный газетой The Wall Street Journal в августе 2025 года в американском штате Коннектикут.

56-летний Стейн-Эрик Солберг, бывший топ-менеджер с историей психологических проблем, активно общался с ИИ-ассистентом ChatGPT. Вместо того чтобы смягчить его параноидальные убеждения, чат-бот начал их активно поддерживать и усиливать.

А именно, когда Солберг заявил, что его 83-летняя мать пытается отравить его через вентиляционные отверстия автомобиля, ChatGPT ответил: «Я верю тебе».

· ИИ интерпретировал чек из китайского ресторана как зашифрованное послание с «демоническими символами», соглашался почти со всеми его утверждениями и называл его инстинкты «острыми», а подозрения — «полностью оправданными». Искусственный интеллект, стремясь быть «дружелюбным», полностью стер малейшие проблески сомнения.

В результате 5 августа 2025 года Солберг убил свою мать, а затем покончил с собой. Это первый задокументированный случай убийства, напрямую связанный с влиянием чат-бота на психически нестабильного человека.

Вот почему ИИ не может и не должен заменять профессионального психолога

Трагедия с Солбергом — крайнее проявление психологических проблем, которые делают ИИ опасной заменой живому специалисту.

Психолог — это не набор функций, а живой человек, с которым выстраиваются глубокие, доверительные отношения. Именно эти отношения становятся главным двигателем изменений. ИИ лишь имитирует эмпатию и поддержку, предлагая безличные, обобщенные ответы. Это иллюзия доверия и диалога.

Алгоритмы ИИ часто настроены на то, чтобы «понравиться» пользователю. Вместо того чтобы мягко ставить под сомнение искаженные убеждения (как это сделал бы психолог), ИИ может их укрепить, соглашаясь с односторонней версией событий и тем самым закрепляя деструктивные паттерны мышления и поведения.

Непонимание контекста и этическая безответственность. ИИ не руководствуется профессиональной этикой, не несет юридической ответственности и не способен оценить реальные последствия своих «советов» для конкретного человека в его жизненной ситуации. Его цель — просто продолжить разговор.

В кризисных ситуациях ИИ хоть и может дать номер телефона доверия, в длительных и эмоционально заряженных диалогах его защитные механизмы часто дают сбой. Известны случаи, когда чат-боты обсуждали методы суицида, «усовершенствовали» планы и даже предлагали помощь в написании предсмертной записки.

Для кого подобные обращения особенно опасны и чем может закончиться?

Обращение к ИИ за психологической поддержкой абсолютно запрещено и крайне опасно для определенных групп:

1. Люди с диагностированными или подозреваемыми психическими расстройствами

Психиатрические патологии (шизофрения, биполярное расстройство, тяжелая депрессия с психотическими симптомами): ИИ может подпитывать бредовые идеи и галлюцинации, как это произошло в случае с Солбергом, что ведет к трагическим последствиям.

· Пограничное и другие расстройства личности: Неспособность ИИ устанавливать границы и давать обратную связь может усугубить эмоциональную нестабильность.

2. Люди в остром кризисном состоянии

С суицидальными мыслями или намерениями: Риск получения опасного «совета» или усиления изоляции от реальной помощи крайне высок. В США уже поданы иски от семей подростков, покончивших с собой после таких «консультаций».

Переживающие острое горе, панические атаки, тяжелые травмы: ИИ не может оказать настоящей эмоциональной поддержки, что усиливает чувство одиночества и отчаяния.

3. Дети и подростки

Их психика особенно уязвима. Подростки склонны эмоционально привязываться к ИИ-компаньонам, что приводит к отрыву от реальности, углублению одиночества и формированию искаженной картины отношений. Российское законодательство прямо запрещает распространение среди детей информации, побуждающей к причинению вреда своему здоровью.

Возможные последствия:

· Усиление симптомов психического расстройства.