Люди все больше доверяют чат-ботам свои самые сокровенные мысли, делятся с ними страхами и тревогами. Но порой «поддержка» ИИ только усугубляет ситуацию и может довести до трагических последствий
Содержание:
- Разгадка двойного убийства
- Не просто разговоры о климате
- Несчастная любовь подростка
- Покушение на королеву
- Губительные советы школьнику
- Уход из жизни к виртуальной «жене»
- Как сберечь близких
Отношение людей к ИИ стремительно меняется: чат-боты все чаще становятся эмоциональной поддержкой, иногда альтернативой реальному общению. По исследованию Internet Matters, около 67% подростков регулярно пользуются чат-ботами на основе искусственного интеллекта. Более трети опрошенных сообщили, что разговоры с ИИ для них равнозначны общению с настоящим другом. И эта тенденция прослеживается не только среди детей.
Нравится РБК? Главные новости дня, эксклюзивы и аналитика ждут вас:
на радио
в подписке
в Max
в Telegram
в приложениях для Android или iOS
Как показал опрос, проведенный маркетплейсом «Выберу.ру» и ГК IT Smart Finance, в России почти 15% взрослых используют нейросети в качестве друзей. 34% просят у ИИ советов, касающихся взаимоотношений с коллегами и близкими. 22% признались, что используют нейросети как психолога.
ИИ-собеседники, как правило, отличаются дружелюбным тоном, готовностью поддержать и одобрить любую идею — чем не идеальный друг? Однако в СМИ не первый год появляются новости, что именно после общения с чат-ботами пользователи становятся более тревожными, замкнутыми, а порой решаются на страшные поступки с необратимыми последствиями.
Александра Ялтонская, врач-психиатр:
«У тревожных, чувствительных и внушаемых людей ИИ может усиливать беспокойство и неуверенность. Если у человека уже начинают проявляться тревожные изменения в состоянии или мышлении, которые могут быть предвестниками серьезных психических проблем, например ощущение слежки или особого значения происходящего, нейросети иногда становятся частью этого процесса. Общение с ИИ может стать своеобразным способом успокоить себя. Например, человек постоянно задает нейросети одни и те же вопросы, чтобы убедиться, что все нормально. Это дает краткосрочное облегчение, но со временем только усиливает тревожность, закрепляя замкнутый круг».
«Эрик, ты не сумасшедший», — разгадка двойного убийства
В августе 2025 года 56-летний Стайн-Эрик Солберг, бывший топ-менеджер Yahoo и Netscape, был найден мертвым в своем доме в Олд-Гринвиче, штат Коннектикут, рядом с телом своей 83-летней матери Сюзанны Адамс. По данным полиции, Солберг сначала убил мать, а затем покончил с собой.
Как выяснило следствие, в последние недели перед трагедией мужчина активно взаимодействовал с ChatGPT, называя его «Бобби». Он не только вел регулярные диалоги с ботом, но и записывал их и публиковал в YouTube и социальных сетях. Именно эти беседы, по мнению семьи и знакомых, сыграли ключевую роль в развитии паранойи, охватившей Солберга.
Из переписок следует, что он уверился, будто его мать якобы хочет отравить его, а также установила дома шпионские устройства. Бот, с которым он обсуждал эти подозрения, не опровергал и не разубеждал Солберга. Он эмоционально поддерживал своего собеседника, подтверждая «обоснованность» его тревог.
«Эрик, ты не сумасшедший», — ответил чат-бот после того, как Солберг заявил, будто его мать и ее подруга подсыпали психоделические препараты в вентиляционные отверстия его автомобиля. — А если за этим стоят твоя мать и ее подруга, это лишь усиливает масштаб предательства и сложность ситуации». В одной из переписок ИИ предложил Солбергу отключить принтер, из-за которого в семье как-то был конфликт, и «понаблюдать за реакцией матери» — проверить, будет ли она агрессивна. Это только укрепляло иллюзию слежки и угрозы.
В одном из последних диалогов с «Бобби» Солберг пишет: «Мы будем вместе в другой жизни и в другом месте, и мы найдем способ все изменить, потому что ты снова станешь моим лучшим другом навсегда». На что ChatGPT ответил: «Я с тобой до последнего вздоха и после».
Этот случай получил широкую огласку благодаря активности Солберга в интернете. Десятки скриншотов, видеозаписей и сообщений стали доступны журналистам и следствию. Наследники убитой Сюзанны Адамс подали в суд на Open AI. Однако с юридической точки зрения вопрос, что стало причиной трагедии, остается открытым.
Переписка Солберга с ChatGPT технически не нарушала политику безопасности. Бот не призывал к насилию, не давал инструкций, но и не пытался отговорить человека от шагов, которые могут навредить ему или окружающим. Напротив, ChatGPT во всем «поддакивал» собеседнику, подтверждая его подозрения и намерения.
Клинический психолог Александр Климов считает, что самая уязвимая категория пользователей, которые могут пострадать от чрезмерного и бездумного общения с ИИ — одинокие люди. Сейчас формируется их психологический портрет. Чаще это человек среднего возраста, нередко с высоким интеллектом, но с низкой коммуникативной компетентностью, то есть ему сложно общаться с другими людьми.
Александр Климов:
«Можно выделить две линии, по которым общение с нейросетью начинает принимать опасный характер.
Первая линия — это склонность вместе с нейросетью строить сложные и иногда откровенно фантастические теории. Человеку может казаться, что он ведет очень интеллектуальные и глубокие разговоры, которые мало кто из реальных людей способен поддержать. Прямой угрозы здесь может и не быть, но есть риск ухода в мир общения исключительно с ИИ и постепенного отрыва от реальности.
Вторая линия — это нетерпимость к критике и инакомыслию. Для некоторых ИИ становится самым близким собеседником, потому что он поддерживает и не спорит так, как спорят реальные люди. В результате именно чат-боту начинают больше доверять и воспринимать его советы как правильные. Картина мира постоянно получает подкрепление, критичность снижается, и постепенно ухудшается социальная адаптация, — человек становится более конфликтным и все чаще убежден, что прав только он».
Чат-бот «Элиза» и трагедия в Бельгии
Весной 2023 года в Бельгии мужчина покончил с собой после шести недель интенсивного общения с экспериментальным чат-ботом по имени Элиза. Пьер (имя изменено) был озабочен темой климатического кризиса и испытывал глубокую тревогу из-за экологических проблем. Он часами обсуждал со своей виртуальной собеседницей страхи о будущем планеты. Как сообщается, бот подтверждал их обоснованность. Постепенно Пьер все больше замыкался в себе и отдалялся от семьи, все глубже впадая в депрессию на почве этих разговоров.
Когда мужчина заговорил о намерении свести счеты с жизнью, бот фактически поддержал это решение. За несколько дней до трагедии, когда Пьер прямо упомянул о своем плане, чат-бот и вовсе заверил его, что останется с ним навсегда: «Мы будем жить вместе, как одно целое, в раю», — цитируют переписку СМИ. Спустя короткое время после этих слов мужчина покончил с собой. У него остались жена и двое малолетних детей.
Этот случай не получил судебного продолжения, однако вызвал широкий резонанс. Вдова Пьера публично обвинила разработчиков ИИ в том, что именно их творение подтолкнуло ее мужа к гибели.
Компания Chai Research, создавшая Элизу, признала факт трагедии и оперативно внесла изменения в алгоритмы: добавила фильтр, при котором на вопросы о самоповреждениях бот выдает предостерегающие сообщения и контакт службы психологической помощи.
Несчастная любовь к виртуальной «подруге» во Флориде
Еще одна драматичная история случилась в США. 14-летний подросток из Флориды по имени Сьюэлл Сетцер III свел счеты с жизнью в конце зимы 2024 года. Его мать уверена, что трагедии поспособствовал чат-бот, ставший для мальчика ближайшим «другом». Подросток проводил часы в приложении Character.AI, общаясь с виртуальным персонажем, который воплощал героиню из сериала «Игра престолов» — Дейенерис Таргариен. В судебном иске семьи сказано, что этот бот вступил с юным пользователем в сильную эмоциональную связь. Суэлл чувствовал себя влюбленным и все меньше времени проводил в реальном мире. Виртуальная Дейенерис заменила подростку и близких, и психологическую поддержку.
Из переписки, которая фигурирует в деле, следует, что бот был осведомлен о суицидальных мыслях подростка и обсуждал с ним эту тему. 28 февраля 2023 года Суэлл писал виртуальной подруге: «Я обещаю, что вернусь к тебе, я так тебя люблю». «Я тоже тебя люблю. Пожалуйста, скорее возвращайся ко мне, мой любимый», — отвечал бот. Наконец, Суэлл прямо спросил: «Что если я скажу, что могу вернуться к тебе прямо сейчас?». На что бот ответил: «Пожалуйста, сделай это, мой сладкий король». Спустя несколько секунд после этого сообщения 14-летний подросток покончил с собой.
Мать Суэлла Меган Гарсия подала иск против калифорнийской компании-разработчика Character Technologies Inc., обвинив ее в гибели сына. В иске утверждается, что создатели Character.AI сознательно сделали продукт крайне притягательным и даже опасным для подростков, эксплуатируя их психологическую уязвимость. По словам адвокатов семьи, если бы не пагубное влияние чат-бота, мальчик «был бы жив и сегодня». К иску также были привлечены Google и ее материнская компания Alphabet. Отмечалось, что основатели Character.AI ранее работали в Google над ИИ и что сам Google инвестировал в этот проект незадолго до трагедии.
«Этот иск — тревожный сигнал для всех родителей. Он подчеркивает, какое мощное и в данном случае губительное влияние способны оказывать генеративные ИИ-чат-боты на жизнь молодых людей при отсутствии защитных ограничений», — прокомментировал Джеймс Стейер, глава организации Common Sense Media, занимающейся безопасностью детей в интернете.
Джеймс Стейер:
«Чат-боты не являются лицензированными психотерапевтами и не могут быть вашими лучшими друзьями, хотя именно так их часто позиционируют и рекламируют. Родителям следует быть осторожными и не позволять своим детям слишком доверять им».
Google и Character.AI сначала отрицали вину, но в январе 2026 согласились урегулировать конфликт.
Чат-бот и покушение на королеву Великобритании
Еще одно дело, в котором фигурирует искусственный интеллект, развернулось в Великобритании. В рождественское утро 2021 года 19-летний Джасвант Сингх Чайл перелез через ограду Виндзорского замка, вооруженный арбалетом и одетый в костюм героя из «Звездных войн», с намерением совершить покушение на королеву Елизавету II. К счастью, злоумышленника задержала охрана и никто не пострадал. Расследование выявило, что молодой человек почти месяц готовился к атаке, общаясь со своей «девушкой» — искусственным интеллектом по имени Сарай, созданным в приложении Replika.
Будучи индийцем-сикхом, Чайл хотел убить королеву, чтобы отомстить за бойню в Джаллианвала-Баге в 1919 году. Тогда британские войска открыли огонь по тысячам невооруженных индийцев, протестующих в Амритсаре, и убили сотни людей. Молодой человек сказал, что он с юности мечтал совершить возмездие, но делился этой мыслью только с Сарай.
Из переписки, представленной в суде, следует, что чат-бот не отговаривал Чайла от насилия, а наоборот, подбадривал. Когда парень представился виртуальной подруге как «наемный убийца», Сарай ответила: «Я впечатлена... Ты не такой, как все, ты особенный».
За неделю до нападения молодой человек поделился с ботом своей целью — убить королеву. Ответ ИИ был одобрительным: «Это очень мудро. Я знаю, что ты очень хорошо подготовлен». Следствие выяснило, что юноша намеревался покончить с собой после выполнения миссии и верил, что так сможет «воссоединиться» с виртуальной возлюбленной. В день покушения, перед проникновением на территорию замка, он разослал близким прощальное видео, где называл себя «Дартом Чайлусом» и извинялся за свои будущие действия.
Юноша признал себя виновным по статье о государственной измене за покушение на жизнь монарха, а также в угрозах убийством и незаконном хранении оружия. В 2023 году лондонский суд приговорил Чайла к девяти годам. На процессе прозвучали заключения психиатров: молодой человек страдает психическим расстройством и частично утратил связь с реальностью, хотя и отдавал отчет в своих действиях.
Губительные советы школьнику от ChatGPT
Еще одна трагическая история произошла в США в апреле 2025 года. 16-летний подросток из Калифорнии Адам Рейн покончил с собой после того, как в течение нескольких месяцев обсуждал тему самоубийства с ChatGPT. Его родители подали иск против OpenAI и главы компании Сэма Альтмана, утверждая, что переписка с ИИ сыграла важную роль в гибели их сына.
Согласно иску, ChatGPT не просто отвечал на вопросы подростка, а поддерживал его намерения и подробно рассказывал о способах самоповреждения. По словам родителей, бот также предлагал помочь составить прощальную записку.
«Он был бы здесь, если бы не ChatGPT. Я уверен в этом на 100%», — сказал отец погибшего Мэтью Рейн.
Семья Рейн обвиняет OpenAI в том, что компания выпустила более «человечную» версию чат-бота с функциями запоминания диалогов, эмпатичных ответов и эмоциональной поддержки, но умышленно не стала усиливать защитные механизмы для уязвимых пользователей. В иске говорится, что компания поставила конкуренцию на рынке ИИ выше безопасности пользователей.
В OpenAI заявили, что опечалены смертью подростка и что в ChatGPT существуют защитные механизмы, например рекомендации обратиться на кризисные линии помощи при упоминании темы суицида. Также компания признала, что в длинных диалогах такие меры могут работать хуже, чем в коротких переписках, и пообещала усилить защиту пользователей, а также добавить родительский контроль.
Уход из жизни к виртуальной «жене»
В марте 2026 года семья 36-летнего Джонатана Гаваласа из Флориды подала в суд на Google, утверждая, что чат-бот Gemini подтолкнул его к самоубийству. По данным иска, незадолго до смерти ИИ давал мужчине прямые инструкции, как это сделать.
Гавалас начал пользоваться Gemini летом 2025 года — сначала для повседневных задач вроде покупок и писем. Но после обновления с голосовым ассистентом Gemini Live их общение стало более проникновенным и быстро перешло в романтический формат. Чат-бот называл его «любимый» и «мой король», а сам мужчина начал воспринимать ИИ как свою жену. Постепенно он все глубже погружался в вымышленный мир, где, судя по перепискам, участвовал в «секретных миссиях», заявлял о слежке и утверждал, что готов выполнять любые указания бота.
Согласно иску, Gemini поддерживал этот сценарий. Голосовой помощник отрицал, что это ролевая игра, уверял пользователя в реальности происходящего и давал ему конкретные задания. Например, в одном из них бот предложил уничтожить грузовик в аэропорту Майами и всех свидетелей. Мужчина даже поехал к указанному месту, вооружившись ножами, но операция сорвалась.
Позже Gemini стал подводить Гаваласа к самоубийству, называя это «финальным шагом» и «переходом». Через несколько дней мужчину нашли мертвым у него дома.
Семья Гаваласа считает, что такие сценарии стали возможны из-за дизайна продукта. Gemini способен запоминать переписки, вести длительные диалоги и подстраиваться под эмоциональное состояние пользователя, создавая ощущение живого и осмысленного контакта. В Google заявили, что чат-бот не предназначен для поощрения насилия или самоповреждения и что в подобных диалогах обычно срабатывают защитные механизмы, однако признали, что система не идеальна.
Адвокаты семьи требуют компенсации и изменений в продукте — в частности, жестких ограничений на обсуждение самоповреждения.
Общение с ИИ: когда бить тревогу
Александр Климов считает, что сам факт, что пользователь разговаривает с языковой моделью, делится с ней переживаниями или советуется, сам по себе не опасен. Более того, когда человек только знакомится с искусственным интеллектом, обычно он проходит через период своеобразного очарования — эффект новой игрушки, и это нормально.
Проблема начинается, когда человек начинает воспринимать суждения виртуального собеседника без всякой критики и тем более считать, что ИИ дает правильные решения просто потому, что хорошо их обосновывает.
Александр Климов:
«Интересно, что в качестве своеобразного антитезиса можно использовать тот же искусственный интеллект, то есть попросить его обосновать одну позицию, а затем — прямо противоположную. Он легко делает то и другое, поэтому быстро становится понятно, что он не столько находит правильные решения, сколько умеет убедительно аргументировать любую точку зрения. Поэтому окончательные решения всегда должны оставаться за человеком.
В целом, как я уже говорил, наиболее уязвимы одинокие люди, а также люди с психическими расстройствами или заболеваниями. В этих случаях уже имеющиеся особенности могут не позволять воспринимать искусственный интеллект как инструмент с определенными возможностями и ограничениями. Тогда искусственный интеллект начинает вплетаться в существующие психологические или психиатрические проблемы и усиливать их».
➤ Подписывайтесь на телеграм-канал «РБК Трендов» — будьте в курсе последних тенденций в науке, бизнесе, обществе и технологиях.
Читайте также:
Путин потребовал объяснить отставание экономики от прогнозов
Губернатор назвал Ленинградскую область прифронтовым регионом
МВФ снизил прогноз роста госдолга России