неотложной помощи, — и, по крайней мере, одна модель оказалась точнее, чем врачи-люди. В одном из экспериментов исследователи сосредоточились на 76 пациентах, поступивших в отделение неотложной помощи, сравнивая диагнозы, поставленные двумя врачами-терапевтами, с диагнозами, сгенерированными моделями OpenAI o1 и 4o. На каждом этапе диагностики o1 либо номинально превосходил, либо показывал результаты наравне с двумя лечащими врачами и 4o, говорится в исследовании, добавляя, что различия «были особенно заметны на первом этапе диагностики (первичная сортировка в приемном отделении), где имеется наименьшее количество информации о пациенте и наибольшая срочность в принятии правильного решения». Хорошо? Еще как. Однако. В своем посте об исследовании Кристен Пантагани, врач отделения неотложной помощи, сказала, что это «интересное исследование ИИ, которое привело к некоторым сильно преувеличенным заголовкам», особенно потому, что в нем сравнивались диагнозы ИИ с диагнозами врачей-терапевто
Новое исследование изучило, как большие языковые модели работают в различных медицинских контекстах, включая реальные случаи в отделениях
3 дня назад3 дня назад
1 мин