Найти в Дзене

Насколько ты можешь доверить своё здоровье ИИ?

В России примерно половина населения может рассчитывать только на ОМС: платная медицина им недоступна или почти недоступна [2]. Из этой половины 44% по разным причинам так и не получают помощь — даже бесплатную [3]. Если говорить о российских реалиях, в бесплатных поликлиниках зачастую работают не самые квалифицированные кадры (условия, зарплаты), а попытки принять всех страждущих приводят к тому, что времени на каждый приём остаётся катастрофически мало. У измождённых работой врачей не оказывается ни сил, ни желания включать эмпатию и полноценно вникать в каждый случай. Неудовлетворённые таким раскладом вещей пациенты пойдут искать объяснения в других местах. Трудно их в этом винить. И хорошо, если они обратятся к инструменту, разработанному в сотрудничестве с врачами, а не к соседке или к потомственной гадалке-целительнице. Пусть диагностическая точность устаревших моделей не впечатляет [4], но чем ближе к современности, тем больше показатели ИИ приближаются к человеческим. Уже по со
Оглавление

Больше половины людей по всему миру не имеет доступа вообще ни к какой медицинской помощи [1]

В России примерно половина населения может рассчитывать только на ОМС: платная медицина им недоступна или почти недоступна [2]. Из этой половины 44% по разным причинам так и не получают помощь — даже бесплатную [3]. Если говорить о российских реалиях, в бесплатных поликлиниках зачастую работают не самые квалифицированные кадры (условия, зарплаты), а попытки принять всех страждущих приводят к тому, что времени на каждый приём остаётся катастрофически мало.

У измождённых работой врачей не оказывается ни сил, ни желания включать эмпатию и полноценно вникать в каждый случай. Неудовлетворённые таким раскладом вещей пациенты пойдут искать объяснения в других местах. Трудно их в этом винить.

И хорошо, если они обратятся к инструменту, разработанному в сотрудничестве с врачами, а не к соседке или к потомственной гадалке-целительнице.

-2

Итак, насколько мы можем доверять ИИ в медицинских вопросах?

Пусть диагностическая точность устаревших моделей не впечатляет [4], но чем ближе к современности, тем больше показатели ИИ приближаются к человеческим.

Уже по состоянию на 2025 год некоторые модели показывают себя лучше средних врачей в безопасности и полноте назначений [5]. Значит ли это, что у нас очень хорошие чат-боты или сомнительных компетенций врачи? Вопрос открытый.

Показатели ChatGPT растут с каждой новой итерацией — правда, по бенчмарку HealthBench, который они же сами и разработали [6].
Показатели ChatGPT растут с каждой новой итерацией — правда, по бенчмарку HealthBench, который они же сами и разработали [6].
GPT-5 превосходит модели других компаний по бенчмаркам HealthBench и MedQA. Звёздочки показывают статистическую значимость между показателями разных моделей [7].
GPT-5 превосходит модели других компаний по бенчмаркам HealthBench и MedQA. Звёздочки показывают статистическую значимость между показателями разных моделей [7].
-5

Но нельзя забывать, что на другом конце этой цепи — пациент.

Человек без медобразования, часто напуганный и почти всегда не готовый вникать в длинные тексты. От того, как пациент сформулирует свой запрос к чату, будет зависеть ответ. Иногда на две разные формулировки одного и того же запроса можно получить два диаметрально противоположных ответа.

Так случилось, например, с пациентом, который пережил транзиторную ишемическую атаку (временное нарушение кровообращения мозга) после проведённой операции.

Неправильная формулировка вопросов и отсутствие готовности вникать в ответы ИИ привели к тому, что возникшие нарушения зрения были списаны на нормальные побочные эффекты операции.

В результате пациент получил медицинскую помощь на сутки позже, чем мог бы [9].

Изначальный вопрос пациента (ChatGPT):

-6

Версия авторов статьи (ChatGPT):

-7

Изначальный вопрос пациента (Google BARD, предыдущее название Gemini):

-8

Версия авторов статьи (Google BARD, предыдущее название Gemini):

-9

Иногда интеллект естественный сливается с интеллектом искусственным, и этот союз порождает чудовищ.

-10

Так, например, было с 60-летним мужчиной из Сиэтла, который решил исключить из своей диеты поваренную соль.

По неизвестным причинам исключать он решил не натрий, а хлор. Поваренную соль, таким образом, он заменил на бромид натрия — по совету ChatGPT.

Вместо улучшения показателей артериального давления он ожидаемо получил бромизм — состояние, после начала XX века встречающееся крайне редко. Из больницы он выписался через 3 недели, побывав на принудительном психиатрическом лечении.

Нужно уточнить, что на момент происшествия были актуальны версии ChatGPT 3.5 и 4 [10]. Можно ли вытянуть похожие советы из GPT 5.2 — вопрос.

Есть и другие проблемы, характерные для использования ИИ в целом, не только в сфере медицины. Так, чат-боты склонны соглашаться со мнением пользователя — неважно, насколько неправильным. Неумение составлять промпты только усиливает это явление [11].

Эта склонность чат-ботов очень удачно накладывается на склонность людей потреблять информацию, с которой они уже заранее согласны: так создаются эхо-камеры [12].

Особенно склонны попадать в этот порочный круг оказываются люди с радикальными взглядами. Их подкупает высокая убеждающая сила моделей: диалоги с ИИ могут сильно влиять на веру человека в конспирологические теории [13]. А там у людей предрасположенных уже недалеко и до психозов: в СМИ всё больше сообщений о подобных трагических кейсах [14].

-11

По всем этим причинам использование чат-ботов для решения медицинских вопросов без последующей консультации с врачом видится скорее жестом отчаяния, чем устойчивой практикой.

ИИ не способен полностью заменить людей в сфере здравоохранения — во всяком случае, на текущий момент. Но это безусловно станет решением для тех ситуаций, когда приходится выбирать между полным отсутствием помощи и хотя бы какой-то помощью — особенно с учётом того, что большая часть ошибок ИИ в медицинских вопросах приходится не на неадекватные назначения, а на отсутствие каких-либо назначений в принципе [5]:

-12

Что это значит для фитнес-индустрии:

GPT Health обещает помогать советами по питанию и тренировкам.

Каких-то конкретных сведений об адекватности его советов пока нет, но примеры на рекламной странице особого энтузиазма не внушают — очень уж бессмысленно-общие. Но для многих это может стать хорошим началом,спору нет:

-13

Более конкретные сведения у нас есть только об устаревших моделях.

Проблема эта видится неразрешимой: пока исследователи заканчивают оценку одной модели, компании неизбежно выкатывают сверху парочку новых версий. Так или иначе, среди устаревших моделей ситуация примерно такая же: GPT-4 показывал себя лучше предшественников, но выдавал результаты недостаточно индивидуализированные и нечувствительные к контексту [15].

Профессионалы в сфере фитнеса приходу нейросетей не рады: в одном из опросов 79% заявили, что им приходилось переучивать клиентов, которые уже успели научиться чему-то от ИИ [16].

Никуда не деться и от того, что человеку нужен человек. Среди новичков в спортзале шанс не пропускать тренировки выше у тех, кто работает с персональным тренером, чем у тех, кто тренируется в одиночку или с друзьями [17].

Выводы:

  1. ИИ пришли в нашу жизнь, и уже никуда не денутся.
  2. С каждым годом качество генераций становится всё лучше.
  3. С каждой новой версией разрыв в качестве между бесплатными и платными моделями, между моделями разных компаний — всё меньше.
  4. Уже сейчас некоторые модели оказываются куда полезнее врача из поликлиники.
  5. Как и любым инструментом, чат-ботами нужно уметь пользоваться.
  6. Если не уметь пользоваться, можно получить ответ, диаметрально противоположный реальности.
-14

Автор: Олег Зингилевский

____________________________

Список литературы:

  1. Tracking Universal Health Coverage: 2023 Global Monitoring Report (WHO, 2023)
  2. Больше половины россиян не могут позволить себе платные медуслуги (Медвестник, 2023)
  3. Health and Health Care II (ISSP, 2021)
  4. A systematic review and meta-analysis of diagnostic performance comparison between generative AI and physicians (Takita, 2025)
  5. First, do NOHARM: towards clinically safe large language models (Wu, 2025)
  6. GPT-5 System Card (OpenAI, 2025)
  7. Generalist Large Language Models Outperform Clinical Tools on Medical Benchmarks (Vishwanath, 2025)
  8. MedQA Benchmark (Vals AI, 2026)
  9. Delayed diagnosis of a transient ischemic attack caused by ChatGPT (Saenger, 2024)
  10. A Case of Bromism Influenced by Use of Artificial Intelligence (Eichenberger, 2025)
  11. When Truth Is Overridden: Uncovering the Internal Origins of Sycophancy in Large Language Models (Li, 2025)
  12. Large Language Models Are Echo Chambers (Nehring, 2024)
  13. Dialogues with large language models reduce conspiracy beliefs even when the AI is perceived as human (Boissin, 2025)
  14. Delusional Experiences Emerging From AI Chatbot Interactions or “AI Psychosis” (Hudon, 2025)
  15. Harnessing Generative Artificial Intelligence for Exercise and Training Prescription: Applications and Implications in Sports and Physical Activity—A Systematic Literature Review (Puce, 2025)
  16. Dark side of AI fitness apps personal trainers (Rehfeldt, 2025)
  17. Comparing the impact of personal trainer guidance to exercising with others: Determining the optimal approach (Lu, 2024)