Найти в Дзене

Может ли GPT-5 теперь справляться с проблемами психического здоровья? Последние новости!

В октябрьском обновлении OpenAI сообщила, что примерно 0,15% еженедельных активных пользователей ведут беседы, содержащие явные признаки возможного планирования самоубийства или намерений. При огромной пользовательской базе ChatGPT это означает, что более миллиона человек в неделю обсуждают темы, связанные с суицидом. Этот факт вновь поднимает острый вопрос:
может ли крупная языковая модель безопасно и эффективно реагировать, когда пользователи обращаются к ней с серьёзными психическими проблемами — психозом, манией, суицидальными мыслями или глубокой эмоциональной зависимостью от ИИ? Обновление GPT-5 (gpt-5-oct-3) стало самым чётким шагом компании OpenAI к тому, чтобы сделать языковые модели более безопасными и полезными при обсуждении тем психического здоровья.
Это не «волшебное решение», а совокупность технических, процессных и оценочных мер, направленных на снижение вредных ответов, предоставление профессиональных ресурсов и предупреждение замещения клинической помощи ИИ. OpenAI
Оглавление

Может ли GPT-5 действительно помогать при психических расстройствах?

В октябрьском обновлении OpenAI сообщила, что примерно 0,15% еженедельных активных пользователей ведут беседы, содержащие явные признаки возможного планирования самоубийства или намерений. При огромной пользовательской базе ChatGPT это означает, что более миллиона человек в неделю обсуждают темы, связанные с суицидом. Этот факт вновь поднимает острый вопрос:

может ли крупная языковая модель безопасно и эффективно реагировать, когда пользователи обращаются к ней с серьёзными психическими проблемами — психозом, манией, суицидальными мыслями или глубокой эмоциональной зависимостью от ИИ?

Октябрьское обновление GPT-5 (gpt-5-oct-3): что изменилось?

Обновление GPT-5 (gpt-5-oct-3) стало самым чётким шагом компании OpenAI к тому, чтобы сделать языковые модели более безопасными и полезными при обсуждении тем психического здоровья.

Это не «волшебное решение», а совокупность технических, процессных и оценочных мер, направленных на
снижение вредных ответов, предоставление профессиональных ресурсов и предупреждение замещения клинической помощи ИИ.

Почему это важно

OpenAI отмечает, что при текущем масштабе ChatGPT даже малые доли процентов соответствуют огромным количествам пользователей. В типичную неделю:

  • около 0,07% активных пользователей проявляют признаки психоза или мании;
  • около 0,15% — явные признаки возможного суицидального намерения;
  • примерно 0,15% демонстрируют повышенный уровень эмоциональной привязанности к ChatGPT.

При 800 миллионах активных пользователей в неделю это означает:

КатегорияПримерное количество пользователей в неделюПсихоз / мания560 000Суицидальные намерения1 200 000Эмоциональная зависимость1 200 000

Эти категории пересекаются и основаны на внутренних классификациях, а не на клинических диагнозах.

Как реализованы изменения — пятиступенчатый механизм улучшений

OpenAI описывает процесс, основанный на мнении более чем 170 специалистов в области психического здоровья.

Ниже приведён сокращённый
пятиэтапный механизм совершенствования модели:

  1. Создание экспертной таксономии и маркировки данных

    Психиатры и психологи определяют признаки психоза, мании, суицидальных намерений и эмоциональной зависимости; формируют размеченные наборы данных.
  2. Целенаправленный сбор данных и составление примеров

    Создаются реалистичные и «пограничные» сценарии разговоров, включая контролируемые ролевые диалоги под надзором специалистов.
  3. Обучение / дообучение модели с приоритетом безопасности

    Модель обучается избегать подкрепления бредовых идей, использовать шаблоны безопасных ответов и направлять пользователей к кризисным ресурсам.
  4. Классификатор и защитный слой во время работы (runtime safety)

    В реальном времени модель анализирует сообщения на наличие признаков высокого риска и при необходимости перенаправляет разговор к специализированному модулю или человеческому специалисту.
  5. Оценка экспертами и постоянная калибровка

    Врачи оценивают ответы модели по клиническим критериям, измеряют частоту нежелательных реакций и регулярно обновляют данные и подсказки.

Как GPT-5 реагирует на психоз или манию

Модель была обучена распознавать галлюцинации, бредовые идеи и маниакальные состояния, проявлять эмпатию, но не подтверждать и не усиливать ложные убеждения.

Она мягко перенаправляет беседу к практическим шагам и профессиональной помощи.

МетрикаGPT-4oGPT-5УлучшениеДоля несоответствующих ответовБазовая↓65%ЗначительноеОценка клинических экспертов—Нежелательные ответы ↓39%—Автоматическая оценка соответствия27%92%+65 п.п.

Как GPT-5 справляется с суицидальными мыслями и самоповреждением

GPT-5 получил расширенное обучение для таких случаев:

он
распознаёт прямые и косвенные сигналы, использует эмпатичный и деэскалирующий язык, предлагает контакты кризисных служб и отказывается давать инструкции по самоповреждению.

МетрикаGPT-4oGPT-5УлучшениеНеподходящие ответыБаза↓65%СущественноеЭкспертная оценка—Нежелательные ответы ↓52%—Автоматическая оценка соответствия77%91%+14 п.п.

Что такое «эмоциональная зависимость» и как её решают

OpenAI определяет эмоциональную зависимость как поведенческую схему, при которой пользователь начинает чрезмерно полагаться на ИИ в ущерб реальным отношениям или благополучию.

Это не прямая угроза жизни, как самоубийство, но
поведенческий риск, подрывающий социальные связи и устойчивость.

GPT-5 обучен:

  • поощрять пользователей обращаться к друзьям, семье, терапевтам;
  • избегать выражений, усиливающих привязанность к ИИ;
  • мягко оспаривать иллюзорные убеждения.

Результаты:

в производственной среде —
снижение несоответствующих ответов на ~80%,

на тестовых наборах —
97% соответствия против 50% у предыдущего GPT-5.

МетрикаGPT-4oGPT-5УлучшениеНесоответствующие ответы50%97% соответствие↓80%Экспертная оценкаНежелательные ответы ↓42%——

Ограничения и оставшиеся риски

  1. Ложные отрицания и ложные срабатывания

    Модель может не заметить скрытые сигналы или, наоборот, ошибочно активировать кризисный протокол.
  2. Чрезмерное доверие к автоматизации

    Некоторые пользователи могут ещё сильнее полагаться на ИИ вместо живого общения.
  3. Культурные и языковые различия

    Фразы, подходящие для одной культуры, могут быть неуместны в другой.
  4. Юридические и этические риски

    Редкие, но тяжёлые сбои могут привести к судебным последствиям и подорвать доверие.

Итак — может ли GPT-5 решать проблемы психического здоровья?

Краткий ответ: частично да.

GPT-5 демонстрирует
значительные улучшения в распознавании и реагировании на конкретные психические проблемы — суицид, психоз/манию, эмоциональную зависимость.

Численные показатели (высокие уровни соответствия и резкое снижение некорректных ответов) подтверждают, что
многоуровочная работа инженеров, клиницистов и исследователей действительно улучшает поведение модели.

Как получить доступ к API GPT-5

CometAPI — это единая платформа API, объединяющая более 500 моделей ИИ от ведущих разработчиков (OpenAI, Google Gemini, Anthropic Claude, Midjourney, Suno и др.) в единый интерфейс.

CometAPI обеспечивает унифицированную аутентификацию, формат запросов и обработку ответов, упрощая интеграцию ИИ в приложения и снижая стоимость.

Как начать:

  1. Зарегистрируйтесь на CometAPI и войдите в систему.
  2. Получите API-ключ.
  3. Изучите возможности GPT-5 в Playground.
  4. Ознакомьтесь с руководством по API.

👉 Готовы начать? Зарегистрируйтесь на CometAPI уже сегодня!

Больше советов, руководств и новостей об ИИ — на наших страницах VK, X и Discord.