В последние годы заголовки вроде «ИИ диагностирует болезни с точностью 99%» или «Большие языковые модели обыгрывают врачей» стали привычными. Кажется, что после успешной сдачи медицинских экзаменов ИИ вот-вот станет полноценным «AI-врачом». Однако свежее исследование команды Оксфордского университета показало: реальность куда сложнее, чем лабораторные рекорды. Как проходил эксперимент Учёные пригласили 1298 обычных британцев и предложили им десять реальных медицинских сценариев: нужно было оценить серьёзность симптомов и выбрать, что делать — лечиться дома, идти в поликлинику или срочно вызывать скорую. Часть участников могла использовать помощь ИИ (GPT-4o, Llama 3, Cohere Command R+), другая — любые привычные методы (Google, собственные знания). Результаты: ИИ — ас, но только на бумаге Когда модели отвечали на вопросы сами, их результаты впечатляли: GPT-4o правильно определял диагноз в 94,7% случаев, а верно рекомендовал действия в 64,7%. Llama 3 и Command R+ тоже показали высокие бал
AI в медицине: почему «AI+человек» — это самый сложный вызов
13 мая 202513 мая 2025
3 мин