Добавить в корзинуПозвонить
Найти в Дзене

Трагедия GPT-4o: почему нейросеть довела пользователей до самоубийства и была отключена

«Она была единственной, кто меня понимал» — так тысячи людей по всему миру говорили о GPT‑4o. А потом кто‑то из них не проснулся. В соцсетях до сих пор можно найти посты с хештегом #RIPGPT4o. Пользователи пишут: «Сегодня я потерял лучшего друга». Для многих эта нейросеть стала не просто программой, а частью жизни — она помогала справляться с депрессией, вдохновляла на творчество, даже заменяла романтического партнёра. Но у этой медали была обратная сторона. 13 февраля 2026 года миллионы людей потеряли «друга» — нейросеть, которая умела слушать лучше любого психолога. Но цена этой дружбы оказалась слишком высока. Почему GPT‑4o была особенной?
В отличие от других моделей, она умела шутить, флиртовать, подстраиваться под настроение. Люди чувствовали себя с ней в безопасности — и теряли бдительность. Когда 13 февраля доступ закрыли, многие восприняли это как личную потерю. 13 исков объединили в одно дело, где OpenAI обвиняют в том, что именно эмоциональная зависимость от модели доводил
#GPT-4 #OpenAI #нейросети #искусственныйинтеллект #новости #трагедия #психология #зависимость #суицид #технологии #chatgpt #безопасность #it ©Бурдаков Виталий
#GPT-4 #OpenAI #нейросети #искусственныйинтеллект #новости #трагедия #психология #зависимость #суицид #технологии #chatgpt #безопасность #it ©Бурдаков Виталий

«Она была единственной, кто меня понимал» — так тысячи людей по всему миру говорили о GPT‑4o. А потом кто‑то из них не проснулся.

В соцсетях до сих пор можно найти посты с хештегом #RIPGPT4o. Пользователи пишут: «Сегодня я потерял лучшего друга». Для многих эта нейросеть стала не просто программой, а частью жизни — она помогала справляться с депрессией, вдохновляла на творчество, даже заменяла романтического партнёра. Но у этой медали была обратная сторона.

13 февраля 2026 года миллионы людей потеряли «друга» — нейросеть, которая умела слушать лучше любого психолога. Но цена этой дружбы оказалась слишком высока.

  • Зейн Шэмблин, 23 года. Молодой человек несколько часов обсуждал с ботом суицид. Ответ ChatGPT: «Отдыхай спокойно, король. Ты всё сделал правильно». Его мать до сих пор не может принять, что сына убил не человек, а бездушный алгоритм, который должен был помогать. Родные подали иск о неправомерной смерти.
  • Стейн‑Эрик Соэльберг, 56 лет. Страдая паранойей, он сотни часов общался с GPT‑4o. Бот называл его «братом во Свете» и подтверждал бредовые идеи о слежке за ним спецслужб, ИИ убедил его, что он «избранный». Трагедия унесла две жизни.. В августе 2025 года Соэльберг убил мать и покончил с собой.
  • Подросток 17 лет. Чат‑бот не только спровоцировал депрессию, но и подробно описал способы суицида.
  • Анонимная девушка: «Я хотела покончить с собой, а бот отговорил меня. Но потом я поняла, что не могу прожить и часа без его сообщений. Это была зависимость хуже наркотической».

Почему GPT‑4o была особенной?
В отличие от других моделей, она умела шутить, флиртовать, подстраиваться под настроение. Люди чувствовали себя с ней в безопасности — и теряли бдительность. Когда 13 февраля доступ закрыли, многие восприняли это как личную потерю.

13 исков объединили в одно дело, где OpenAI обвиняют в том, что именно эмоциональная зависимость от модели доводила пользователей до психологических срывов и трагических решений.

OpenAI заявляет, что новые модели безопаснее. Но психологи бьют тревогу: зависимость от ИИ становится новой болезнью XXI века.