Найти в Дзене
АКЦ «Помощь»

Искусственный интеллект в медицине

Принято считать, что искусственному интеллекту - широкая дорога в медицинскую практику. Но как именно должен быть устроен ИИ для медицины и кому он будет помогать. Сможет ли он заменить врача для обычного пациента или нет? На днях вышла статья в журнале Nature, опубликованная группой ученых из США и Великобритании. В этом исследовании авторы продемонстрировали, что ИИ может прекрасно анализировать теоретические медицинские знания и даже сдавать экзамены на получение медицинской лицензии с почти идеальными результатами. https://www.nature.com/articles/s41586-025-08869-4 Однако, когда исследователи проверили способность этих же ИИ помогать обычным людям в самостоятельной постановке диагнозов и принятии решений о том, что делать дальше, например, обратиться к врачу или лечиться доступными средствами, результаты оказались неутешительными: участники, использующие ИИ, правильно определили свое состояние менее чем в 34,5% случаев, а правильные дальнейшие рекомендации-решения были даны в 44,2%
Оглавление
Нейросети успешно сдают экзамены по медицине и могут быть подспорьем врачам, но с пациентами их общаться еще не научили.
Нейросети успешно сдают экзамены по медицине и могут быть подспорьем врачам, но с пациентами их общаться еще не научили.

Принято считать, что искусственному интеллекту - широкая дорога в медицинскую практику. Но как именно должен быть устроен ИИ для медицины и кому он будет помогать. Сможет ли он заменить врача для обычного пациента или нет?

На днях вышла статья в журнале Nature, опубликованная группой ученых из США и Великобритании. В этом исследовании авторы продемонстрировали, что ИИ может прекрасно анализировать теоретические медицинские знания и даже сдавать экзамены на получение медицинской лицензии с почти идеальными результатами.

https://www.nature.com/articles/s41586-025-08869-4

Однако, когда исследователи проверили способность этих же ИИ помогать обычным людям в самостоятельной постановке диагнозов и принятии решений о том, что делать дальше, например, обратиться к врачу или лечиться доступными средствами, результаты оказались неутешительными: участники, использующие ИИ, правильно определили свое состояние менее чем в 34,5% случаев, а правильные дальнейшие рекомендации-решения были даны в 44,2% случаев.

Clinical knowledge in LLMs does not translate to human interactions

Почему искусственный интеллект с медицинским дипломом не справляется с пациентами

Основано на исследовании: "Clinical knowledge in LLMs does not translate to human interactions" (2025)

🤖 В чём суть?

Большие языковые модели (LLMs), такие как GPT-4, теперь с лёгкостью сдают медицинские экзамены и отвечают на клинические вопросы на уровне профессиональных врачей. Логичный шаг — использовать их как помощников для пациентов. Но работает ли это в реальности?

Новое исследование из Оксфорда показывает: нет, это не надежно.

🧪 Что сделали исследователи?

Учёные провели эксперимент с 1298 участниками, предложив им типичные медицинские сценарии — например, резкая головная боль или боли в животе. Задача: определить возможное заболевание и выбрать, что делать дальше, вызвать скорую, пойти к врачу или лечиться дома.

Половина участников использовала LLM (GPT-4o, Llama 3 или Command R+), другая — обычный интернет или свои знания.

📉 Что выяснилось?

  • Сами LLMs определяют болезни правильно в ~95% случаев.
  • Но люди, использующие эти же LLMs, справляются хуже, чем те, кто использует Google или свои знания.
  • Почему?
  • Люди не всегда сообщают модели важные симптомы.
  • Модели дают разумные советы, но не всегда понятно, что делать.
  • Пользователи игнорируют или не понимают подсказки.

⚠️ Почему это важно?

✅ Медицинские знания у моделей есть.
🚫 Но
без умения понятно и надёжно взаимодействовать с человеком — толку мало.

Более того, популярные тесты вроде MedQA (на основе медэкзаменов) не предсказывают, насколько хорошо модель справится с живым пользователем - пациентом.

🔍 Вывод

ИИ в медицине — это не только вопрос знаний, но и вопрос коммуникации. Прежде чем пускать такие технологии в массовое использование, нужно:

  • Тестировать их с реальными людьми.
  • Улучшать интерфейсы и формы подачи информации.
  • Обучать модели быть не просто «умными», а полезными в диалоге.

📌 Мораль: У LLM — диплом, но пока нет bedside manner. И без этого им рано в клинику.

Что думают об ИИ психологи и психиатры?

От психологов и психиатров можно добавить, что ИИ все более внедряется в практику как карманный терапевт или психолог. За это не нужно платить и он всегда может быть под рукой, и даже полезен в ряде случаев. Однако, LLM - это не терапевт и не психолог:

1. ИИ лишен эмпатии, и подстраивается под эмоции клиента, таким образом, он не может возражать, конфронтировать и выбирать, когда это делать разумно, а когда это лишнее.

2. Благодаря сути общения с ИИ образуется замкнутая система. Живой психолог или психотерапевт - это возможность быть системы открытой и развиваться. В содружестве с ИИ пациент рискует попасть в изоляцию.

3. В случае каких-либо серьезных причин, например, риск нанесения вреда себе или другим, ИИ не сможет вызвать скорую помощь.

4. За счет подстраивания к эмоциональному состоянию ИИ может симулировать поддержку, принятие и вызывать зависимость вместо исцеления.

Идея статьи от невролога Фейгиной Анны, нашего врача специалиста