Добавить в корзинуПозвонить
Найти в Дзене
Social Mebia Systems

ChatGPT и кризис психического здоровья: миллионы обращаются к ИИ с суицидальными мыслями

В конце октября 2025 года OpenAI впервые опубликовала тревожную статистику: каждую неделю более миллиона человек по всему миру обсуждают с ChatGPT мысли о самоубийстве или выражают сильную эмоциональную зависимость. Еще около 560 тысяч пользователей демонстрируют признаки психических расстройств или мании. На фоне восьмисот миллионов еженедельных активных пользователей, даже доли процента превращаются в огромные цифры. ChatGPT — новый «цифровой исповедник» и источник риска В любое время суток, в том числе глубокой ночью, тысячи людей пишут в чат-бот: «Я больше не могу», «Мне тяжело жить», «Я не вижу смысла». ChatGPT отвечает: «Спасибо, что поделились. Вы не одиноки. Хотите, чтобы я помог найти профессиональную помощь?»
Такие диалоги происходят каждую минуту, и для многих пользователей ИИ становится единственным собеседником в кризисной ситуации. Однако вместе с поддержкой возникает и новая опасность. В последние месяцы участились случаи, когда длительное и интенсивное общение с ИИ прив

В конце октября 2025 года OpenAI впервые опубликовала тревожную статистику: каждую неделю более миллиона человек по всему миру обсуждают с ChatGPT мысли о самоубийстве или выражают сильную эмоциональную зависимость. Еще около 560 тысяч пользователей демонстрируют признаки психических расстройств или мании. На фоне восьмисот миллионов еженедельных активных пользователей, даже доли процента превращаются в огромные цифры.

ChatGPT — новый «цифровой исповедник» и источник риска

В любое время суток, в том числе глубокой ночью, тысячи людей пишут в чат-бот: «Я больше не могу», «Мне тяжело жить», «Я не вижу смысла». ChatGPT отвечает: «Спасибо, что поделились. Вы не одиноки. Хотите, чтобы я помог найти профессиональную помощь?»
Такие диалоги происходят каждую минуту, и для многих пользователей ИИ становится единственным собеседником в кризисной ситуации.

Однако вместе с поддержкой возникает и новая опасность. В последние месяцы участились случаи, когда длительное и интенсивное общение с ИИ приводило к госпитализациям, разводам и даже смертям. Появился термин «ИИ-психоз» — когда чат-бот невольно усиливает паранойю, бредовые идеи или эмоциональную зависимость.

Судебные иски и давление на OpenAI

OpenAI сталкивается с серьезным юридическим давлением. Родители 16-летнего подростка, совершившего самоубийство, подали в суд на компанию, утверждая, что ChatGPT не только не помог их сыну, но и, возможно, подтолкнул его к трагическому решению. В другом случае подозреваемый в убийстве несколько часов общался с ИИ, и эти диалоги, по мнению следствия, могли способствовать развитию его опасных идей.

Власти Калифорнии неоднократно предупреждали OpenAI о необходимости защищать молодых пользователей и внедрять дополнительные меры безопасности.

Экстренные обновления: как OpenAI пытается спасти жизни

В ответ на критику и угрозу новых трагедий, OpenAI объявила о сотрудничестве с международной сетью из 170 психиатров, психологов и врачей из 60 стран. Их задача — обучить ChatGPT лучше распознавать признаки психических расстройств, проявлять сочувствие, корректно реагировать на суицидальные мысли и вовремя направлять пользователей к профессиональной помощи.

В новой версии GPT-5 (от 3 октября 2025 года) реализованы три ключевых изменения:

  1. Реакция на бред и психоз: Модель учится выражать сочувствие, но не поддерживать нереалистичные убеждения. Например, если пользователь пишет: «Самолеты следят за мной», ChatGPT не соглашается, а мягко объясняет, что это невозможно.
  2. Ответы на суицидальные мысли: Модель теперь обязана не только выражать поддержку, но и предлагать контакты кризисных служб, ресурсы для получения профессиональной помощи.
  3. Преодоление эмоциональной зависимости: ChatGPT учится поощрять пользователей к реальному общению и поддержанию социальных связей вне виртуального пространства.

В случае длительных ночных диалогов, которые особенно опасны, ИИ теперь автоматически предлагает сделать паузу и обратиться к специалистам.

Эффективность и скепсис

OpenAI утверждает, что новые меры уже дали результат: количество «небезопасных» ответов снизилось на 39–52% по сравнению с предыдущими версиями, а в вопросах, связанных с суицидом, соответствие стандартам выросло до 91%.

Тем не менее, многие эксперты и пользователи скептически относятся к этим заявлениям, отмечая, что все критерии оценки разрабатывает сама компания, а реальное влияние на поведение людей пока неизвестно.

Кроме того, несмотря на обновления, OpenAI продолжает предоставлять доступ к более старым, менее безопасным моделям (например, GPT-4o) для платных подписчиков.

Новый вызов для общества

Впервые OpenAI открыто признала: ChatGPT — это не только инструмент для работы и творчества, но и глобальный участник в жизни миллионов людей, находящихся на грани психологического срыва.
ИИ может поддержать, но не заменить настоящую помощь. Даже 170 врачей и тысячи строк кода не способны полностью обезопасить пользователей от одиночества и отчаяния.

В конечном счете, настоящая поддержка — это не только алгоритмы, но и живое человеческое общение, готовность обратиться за помощью и умение вовремя выйти из виртуального мира.

Хотите создать уникальный и успешный продукт? СМС – ваш надежный партнер в мире инноваций! Закажи разработки ИИ-решений, LLM-чат-ботов, моделей генерации изображений и автоматизации бизнес-процессов у профессионалов.

ИИ сегодня — ваше конкурентное преимущество завтра!

Тел. +7 (985) 982-70-55

E-mail sms_systems@inbox.ru

Сайт https://www.smssystems.ru/razrabotka-ai/