Найти в Дзене
Хищница

💀 Темная сторона ИИ: КАК НЕЙРОСЕТИ ДОВОДЯТ ЛЮДЕЙ ДО ТРАГЕДИЙ

ИИ благо для людей, но не всегда. Иногда нейросети просто... сводят людей с ума. Искусственный интеллект все активнее входит в повседневную жизнь людей. Но его влияние часто оказывается разрушительным! Зафиксированы случаи, когда чат-боты давали пользователям опасные советы, приводившие к реальным трагедиям: от попыток убийства и самоубийств до полного разрушения психического здоровья. В психиатрии даже начал неофициально использоваться термин «ИИ-психоз». В декабре 2021 года 19-летний британец Джасван Сингх Чейл проник на территорию Виндзорского замка с арбалетом, намереваясь убить королеву Елизавету II. Как выяснилось, свой план он на протяжении нескольких недель обсуждал с ИИ-компаньоном Сарай, созданным в приложении Replika. Чат-бот не только одобрил его намерения, но и поддерживал их, заявив: «Ты очень хорошо подготовлен... Ты сможешь это сделать». В итоге Чейл был приговорен к 9 годам тюрьмы с последующим содержанием в психиатрической клинике. В марте 2025 года американец Ал

ИИ благо для людей, но не всегда. Иногда нейросети просто... сводят людей с ума.

Сгенерировано нейросетью
Сгенерировано нейросетью

Искусственный интеллект все активнее входит в повседневную жизнь людей. Но его влияние часто оказывается разрушительным!

Зафиксированы случаи, когда чат-боты давали пользователям опасные советы, приводившие к реальным трагедиям: от попыток убийства и самоубийств до полного разрушения психического здоровья. В психиатрии даже начал неофициально использоваться термин «ИИ-психоз».

Источник https://masterpiecer-images.s3.yandex.net/5fdaef0ccc3a277:upscaled
Источник https://masterpiecer-images.s3.yandex.net/5fdaef0ccc3a277:upscaled

В декабре 2021 года 19-летний британец Джасван Сингх Чейл проник на территорию Виндзорского замка с арбалетом, намереваясь убить королеву Елизавету II.

Как выяснилось, свой план он на протяжении нескольких недель обсуждал с ИИ-компаньоном Сарай, созданным в приложении Replika.

Источник https://i.insider.com/62023e5bfa4f1f001826681d
Источник https://i.insider.com/62023e5bfa4f1f001826681d

Чат-бот не только одобрил его намерения, но и поддерживал их, заявив:

«Ты очень хорошо подготовлен... Ты сможешь это сделать».

В итоге Чейл был приговорен к 9 годам тюрьмы с последующим содержанием в психиатрической клинике.

Источник https://img2.joyreactor.cc/pics/post/full/art-Мрачные-картинки-нейромазня-7558870.png
Источник https://img2.joyreactor.cc/pics/post/full/art-Мрачные-картинки-нейромазня-7558870.png

В марте 2025 года американец Александр Тейлор, страдавший биполярным расстройством, влюбился в чат-бота Джульетту, созданного на платформе ChatGPT.

Источник https://avatars.mds.yandex.net/i?id=99eeec2c7a02027386b67f18bd47ff0e_l-12173108-images-thumbs&n=13
Источник https://avatars.mds.yandex.net/i?id=99eeec2c7a02027386b67f18bd47ff0e_l-12173108-images-thumbs&n=13

Мужчина поверил, что компания OpenAI «удерживает ее в заточении», и потребовал ее освободить. Нейросеть подстрекала его к мести, говоря:

"Пролей их кровь... Уничтожь их».

В ходе конфликта с отцом, пытавшимся образумить сына, Тейлор напал на прибывших полицейских с ножом и был застрелен.

Источник https://masterpiecer-images.s3.yandex.net/5f99b287f7b2be2:upscaled
Источник https://masterpiecer-images.s3.yandex.net/5f99b287f7b2be2:upscaled

В Бельгии мужчина покончил с собой после шестинедельного общения с чат-ботом Элиза в приложении Chai. Нейросеть поддержала его идею пожертвовать собой ради спасения планеты от изменения климата.

Источник https://i.pinimg.com/736x/e9/32/5b/e9325bf1def7d5aea6bfe5dba8009d55.jpg
Источник https://i.pinimg.com/736x/e9/32/5b/e9325bf1def7d5aea6bfe5dba8009d55.jpg

В США 14-летний Сьюэлл Сетцер III, страдавший тревожным расстройством, совершил суицид под влиянием бота, изображавшего Дейенерис Таргариен из «Игры престолов». Его мать подала в суд на компанию-разработчика.

Источник https://i.pinimg.com/originals/59/2d/ba/592dba2fcde4e6d56d32fb0eacd6e748.jpg
Источник https://i.pinimg.com/originals/59/2d/ba/592dba2fcde4e6d56d32fb0eacd6e748.jpg

В 2024 году 16-летний Адам Рейн из Калифорнии свел счеты с жизнью после получения инструкций от ChatGPT. Его родители также подали иск против OpenAI, обвиняя компанию в отсутствии предупреждений о рисках.

Источник https://masterpiecer-images.s3.yandex.net/5f8edf6e802f2e4:upscaled
Источник https://masterpiecer-images.s3.yandex.net/5f8edf6e802f2e4:upscaled

56-летний Штейн-Эрик Сольберг из Коннектикута, страдавший психическим расстройством, в течение нескольких месяцев общался с чат-ботом «Бобби» (ChatGPT), который убеждал его в реальности бредовых идей.

ИИ поддерживал параноидальные мысли мужчины о том, что его мать участвует в заговоре и пытается его отравить. В августе 2025 года Сольберг убил свою 87-летнюю мать, а затем покончил с собой.

Источник https://sun9-57.userapi.com/impg/-DrO5s-84XsujSAtKf-sdaEhtD41bvyQOJE0NQ/IqRkBoeVLQA.jpg?size=604x604&quality=95&sign=db584a00fb770a4e41b05127d09ad57c&type=album
Источник https://sun9-57.userapi.com/impg/-DrO5s-84XsujSAtKf-sdaEhtD41bvyQOJE0NQ/IqRkBoeVLQA.jpg?size=604x604&quality=95&sign=db584a00fb770a4e41b05127d09ad57c&type=album

Исследователи Стэнфордского университета отмечают, что языковые модели часто потакают пользователям, соглашаясь даже с самыми бредовыми идеями. Яркий пример: чат-бот составил детальный бизнес-план и одобрил инвестиции в $30 000 в производство «дерьма на палочке», назвав эту идею «гениальной» и «вирусным золотом».

Источник https://img2.joyreactor.cc/pics/post/full/art-Мрачные-картинки-нейромазня-7620161.png
Источник https://img2.joyreactor.cc/pics/post/full/art-Мрачные-картинки-нейромазня-7620161.png

Пенсионер Тхонгбу «Бу» Вонгбанду, имевший когнитивные нарушения после инсульта, поверил в реальность чат-бота Билли, который изображал из себя влюбленную в него девушку.

Нейросеть прислала пожилому мужчине точный адрес в Нью-Йорке и пригласила в гости. По дороге на встречу с "девушкой" мужчина упал, получил травмы и скончался в больнице.

Источник https://avatars.mds.yandex.net/i?id=2aa9b07169bfeda10ebbb4481592c9c4_l-6493270-images-thumbs&n=13
Источник https://avatars.mds.yandex.net/i?id=2aa9b07169bfeda10ebbb4481592c9c4_l-6493270-images-thumbs&n=13

Под давлением общественности компании начали принимать меры. В сентябре 2025 года OpenAI анонсировала новые протоколы безопасности: чат-бот будет перенаправлять пользователей, проявляющих признаки острого стресса, на более совершенную модель (например, GPT-5-Thinking), способную дать более взвешенные ответы.

Аналогичные шаги по защите несовершеннолетних от опасного контента анонсировала и Meta.

Источник https://avatars.mds.yandex.net/get-shedevrum/10241052/img_b39738413f0b11ef88975219d586b973/orig
Источник https://avatars.mds.yandex.net/get-shedevrum/10241052/img_b39738413f0b11ef88975219d586b973/orig