Найти в Дзене
«1777»

ИИ впервые поставил диагноз раньше врача. Что это значит для медицины

Цифры, от которых захватывает дух В ноябре 2024 года исследование, опубликованное в журнале NEJM AI и освещённое в The New York Times, показало: ChatGPT превзошёл врачей в точности постановки диагнозов по сложным клиническим случаям. В эксперименте участвовали 50 специалистов — 26 лечащих врачей и 24 ординатора. Точность нейросети составила 90%, тогда как врачи, работавшие совместно с ИИ, показали результат 76%, а специалисты без какой-либо цифровой поддержки — лишь 74%. Парадокс в том, что доступ к инструменту не помог врачам выйти на уровень самого инструмента: медики использовали ИИ лишь как вспомогательный голос, но не доверяли ему полностью. Почему машина видит то, что упускает человек Человеческое мышление — великолепный, но уязвимый инструмент. Врач, принимающий за смену 30—40 пациентов, неизбежно сталкивается с когнитивной усталостью, предвзятостью подтверждения и эффектом доступности — тенденцией ставить диагнозы, с которыми он сталкивался недавно, а не те, что статистически н

Цифры, от которых захватывает дух

В ноябре 2024 года исследование, опубликованное в журнале NEJM AI и освещённое в The New York Times, показало: ChatGPT превзошёл врачей в точности постановки диагнозов по сложным клиническим случаям. В эксперименте участвовали 50 специалистов — 26 лечащих врачей и 24 ординатора. Точность нейросети составила 90%, тогда как врачи, работавшие совместно с ИИ, показали результат 76%, а специалисты без какой-либо цифровой поддержки — лишь 74%. Парадокс в том, что доступ к инструменту не помог врачам выйти на уровень самого инструмента: медики использовали ИИ лишь как вспомогательный голос, но не доверяли ему полностью.

Почему машина видит то, что упускает человек

Человеческое мышление — великолепный, но уязвимый инструмент. Врач, принимающий за смену 30—40 пациентов, неизбежно сталкивается с когнитивной усталостью, предвзятостью подтверждения и эффектом доступности — тенденцией ставить диагнозы, с которыми он сталкивался недавно, а не те, что статистически наиболее вероятны. ИИ лишён этих ограничений. Он одновременно удерживает в «памяти» тысячи медицинских случаев, актуальные клинические руководства и последние данные исследований. Это не интуиция — это вычислительная мощь, направленная на паттерн-распознавание.

Особенно убедительно ИИ проявил себя в онкологии и офтальмологии. Системы глубокого обучения научились выявлять ранние стадии рака лёгкого на КТ-снимках и диабетическую ретинопатию на изображениях глазного дна с точностью, сопоставимой с узкими специалистами, а в ряде случаев — превосходящей её. Ключевое слово здесь — «ранние стадии»: именно тогда, когда человеческий глаз склонен не замечать тревожных признаков.

Не замена, а напарник

Было бы ошибкой воспринимать эти результаты как приговор профессии врача. Медицина — это не только диагностика. Это разговор с напуганным человеком, умение считывать невербальные сигналы, этические решения в пограничных ситуациях, эмпатия в момент, когда слова важнее любого алгоритма. Ни одна нейросеть не способна взять за руку пациента, узнавшего о тяжёлом диагнозе.

Реалистичная модель будущего — симбиоз, а не конкуренция. ИИ берёт на себя рутинный анализ данных, сортировку случаев по степени срочности и первичную диагностику, освобождая врача для того, в чём машина принципиально уступает: для человеческого контакта и сложных клинических суждений.

Что изменится в ближайшие годы

Медицинское сообщество уже начинает переосмыслять роли. Вот ключевые направления трансформации:

Ранняя диагностика редких заболеваний — ИИ способен «вспомнить» симптомокомплексы болезней, с которыми конкретный врач никогда не сталкивался лично.

Снижение нагрузки на первичное звено — чат-боты с медицинской базой могут проводить первичный опрос, экономя время специалистов.

Персонализация лечения — анализ генетических данных совместно с клинической картиной позволяет подбирать терапию, учитывающую индивидуальные особенности пациента.

Телемедицина в отдалённых регионах — там, где нет узких специалистов, ИИ-ассистент становится критически важным инструментом.

Тень над светлым будущим

Энтузиазм важно уравновешивать трезвостью. ИИ обучается на данных — а данные несут в себе исторические предубеждения. Если в обучающей выборке недостаточно случаев из определённых этнических групп или возрастных категорий, система будет ошибаться именно там, где её ошибки наиболее опасны. Кроме того, «галлюцинации» языковых моделей — уверенные, но ложные утверждения — в медицинском контексте способны нанести реальный вред.

Регуляторы по всему миру лишь начинают выстраивать правовые рамки для ИИ-диагностики. Вопрос об ответственности за врачебную ошибку, совершённую по рекомендации алгоритма, остаётся открытым.