? Искусственный интеллект (ИИ) всё шире внедряют в системы принятия решений, в том числе медицинских. Поэтому недавно в журнале Nature опубликовали исследования способности ИИ к гибкому клиническому рассуждению в неоднозначных ситуациях, изученного с помощью теста mARC-QA, моделирующего сложный диагностический сценарий, где первоначальный клинический шаблон вступает в противоречие с новыми фактами (https://www.nature.com/articles/s41598-025-22940-0). Задачей испытуемого при этом было не вспомнить информацию, а пересмотреть гипотезу. ИИ с этой задачей не справился: точность лучших моделей (DeepSeek-R1, Gemini 1.5 Pro) составила лишь 50-52%, в то время как группа врачей достигла 66%. Ключевой провал ИИ — в подверженности «эффекту установки»: модель застревает на знакомом шаблоне и не может гибко перестроить логику рассуждений. Для подтверждения своего выбора ИИ часто «галлюцинирует», то есть выдумывает неправдоподобные медицинские факты. Чрезмерная уверенность ИИ создаёт для врача, ана
ИИ в клинической практике: помощник или источник ошибок
13 января13 янв
1 мин