Больше половины людей по всему миру не имеет доступа вообще ни к какой медицинской помощи [1]
В России примерно половина населения может рассчитывать только на ОМС: платная медицина им недоступна или почти недоступна [2]. Из этой половины 44% по разным причинам так и не получают помощь — даже бесплатную [3]. Если говорить о российских реалиях, в бесплатных поликлиниках зачастую работают не самые квалифицированные кадры (условия, зарплаты), а попытки принять всех страждущих приводят к тому, что времени на каждый приём остаётся катастрофически мало.
У измождённых работой врачей не оказывается ни сил, ни желания включать эмпатию и полноценно вникать в каждый случай. Неудовлетворённые таким раскладом вещей пациенты пойдут искать объяснения в других местах. Трудно их в этом винить.
И хорошо, если они обратятся к инструменту, разработанному в сотрудничестве с врачами, а не к соседке или к потомственной гадалке-целительнице.
Итак, насколько мы можем доверять ИИ в медицинских вопросах?
Пусть диагностическая точность устаревших моделей не впечатляет [4], но чем ближе к современности, тем больше показатели ИИ приближаются к человеческим.
Уже по состоянию на 2025 год некоторые модели показывают себя лучше средних врачей в безопасности и полноте назначений [5]. Значит ли это, что у нас очень хорошие чат-боты или сомнительных компетенций врачи? Вопрос открытый.
Но нельзя забывать, что на другом конце этой цепи — пациент.
Человек без медобразования, часто напуганный и почти всегда не готовый вникать в длинные тексты. От того, как пациент сформулирует свой запрос к чату, будет зависеть ответ. Иногда на две разные формулировки одного и того же запроса можно получить два диаметрально противоположных ответа.
Так случилось, например, с пациентом, который пережил транзиторную ишемическую атаку (временное нарушение кровообращения мозга) после проведённой операции.
Неправильная формулировка вопросов и отсутствие готовности вникать в ответы ИИ привели к тому, что возникшие нарушения зрения были списаны на нормальные побочные эффекты операции.
В результате пациент получил медицинскую помощь на сутки позже, чем мог бы [9].
Изначальный вопрос пациента (ChatGPT):
Версия авторов статьи (ChatGPT):
Изначальный вопрос пациента (Google BARD, предыдущее название Gemini):
Версия авторов статьи (Google BARD, предыдущее название Gemini):
Иногда интеллект естественный сливается с интеллектом искусственным, и этот союз порождает чудовищ.
Так, например, было с 60-летним мужчиной из Сиэтла, который решил исключить из своей диеты поваренную соль.
По неизвестным причинам исключать он решил не натрий, а хлор. Поваренную соль, таким образом, он заменил на бромид натрия — по совету ChatGPT.
Вместо улучшения показателей артериального давления он ожидаемо получил бромизм — состояние, после начала XX века встречающееся крайне редко. Из больницы он выписался через 3 недели, побывав на принудительном психиатрическом лечении.
Нужно уточнить, что на момент происшествия были актуальны версии ChatGPT 3.5 и 4 [10]. Можно ли вытянуть похожие советы из GPT 5.2 — вопрос.
Есть и другие проблемы, характерные для использования ИИ в целом, не только в сфере медицины. Так, чат-боты склонны соглашаться со мнением пользователя — неважно, насколько неправильным. Неумение составлять промпты только усиливает это явление [11].
Эта склонность чат-ботов очень удачно накладывается на склонность людей потреблять информацию, с которой они уже заранее согласны: так создаются эхо-камеры [12].
Особенно склонны попадать в этот порочный круг оказываются люди с радикальными взглядами. Их подкупает высокая убеждающая сила моделей: диалоги с ИИ могут сильно влиять на веру человека в конспирологические теории [13]. А там у людей предрасположенных уже недалеко и до психозов: в СМИ всё больше сообщений о подобных трагических кейсах [14].
По всем этим причинам использование чат-ботов для решения медицинских вопросов без последующей консультации с врачом видится скорее жестом отчаяния, чем устойчивой практикой.
ИИ не способен полностью заменить людей в сфере здравоохранения — во всяком случае, на текущий момент. Но это безусловно станет решением для тех ситуаций, когда приходится выбирать между полным отсутствием помощи и хотя бы какой-то помощью — особенно с учётом того, что большая часть ошибок ИИ в медицинских вопросах приходится не на неадекватные назначения, а на отсутствие каких-либо назначений в принципе [5]:
Что это значит для фитнес-индустрии:
GPT Health обещает помогать советами по питанию и тренировкам.
Каких-то конкретных сведений об адекватности его советов пока нет, но примеры на рекламной странице особого энтузиазма не внушают — очень уж бессмысленно-общие. Но для многих это может стать хорошим началом,спору нет:
Более конкретные сведения у нас есть только об устаревших моделях.
Проблема эта видится неразрешимой: пока исследователи заканчивают оценку одной модели, компании неизбежно выкатывают сверху парочку новых версий. Так или иначе, среди устаревших моделей ситуация примерно такая же: GPT-4 показывал себя лучше предшественников, но выдавал результаты недостаточно индивидуализированные и нечувствительные к контексту [15].
Профессионалы в сфере фитнеса приходу нейросетей не рады: в одном из опросов 79% заявили, что им приходилось переучивать клиентов, которые уже успели научиться чему-то от ИИ [16].
Никуда не деться и от того, что человеку нужен человек. Среди новичков в спортзале шанс не пропускать тренировки выше у тех, кто работает с персональным тренером, чем у тех, кто тренируется в одиночку или с друзьями [17].
Выводы:
- ИИ пришли в нашу жизнь, и уже никуда не денутся.
- С каждым годом качество генераций становится всё лучше.
- С каждой новой версией разрыв в качестве между бесплатными и платными моделями, между моделями разных компаний — всё меньше.
- Уже сейчас некоторые модели оказываются куда полезнее врача из поликлиники.
- Как и любым инструментом, чат-ботами нужно уметь пользоваться.
- Если не уметь пользоваться, можно получить ответ, диаметрально противоположный реальности.
Автор: Олег Зингилевский
____________________________
Список литературы:
- Tracking Universal Health Coverage: 2023 Global Monitoring Report (WHO, 2023)
- Больше половины россиян не могут позволить себе платные медуслуги (Медвестник, 2023)
- Health and Health Care II (ISSP, 2021)
- A systematic review and meta-analysis of diagnostic performance comparison between generative AI and physicians (Takita, 2025)
- First, do NOHARM: towards clinically safe large language models (Wu, 2025)
- GPT-5 System Card (OpenAI, 2025)
- Generalist Large Language Models Outperform Clinical Tools on Medical Benchmarks (Vishwanath, 2025)
- MedQA Benchmark (Vals AI, 2026)
- Delayed diagnosis of a transient ischemic attack caused by ChatGPT (Saenger, 2024)
- A Case of Bromism Influenced by Use of Artificial Intelligence (Eichenberger, 2025)
- When Truth Is Overridden: Uncovering the Internal Origins of Sycophancy in Large Language Models (Li, 2025)
- Large Language Models Are Echo Chambers (Nehring, 2024)
- Dialogues with large language models reduce conspiracy beliefs even when the AI is perceived as human (Boissin, 2025)
- Delusional Experiences Emerging From AI Chatbot Interactions or “AI Psychosis” (Hudon, 2025)
- Harnessing Generative Artificial Intelligence for Exercise and Training Prescription: Applications and Implications in Sports and Physical Activity—A Systematic Literature Review (Puce, 2025)
- Dark side of AI fitness apps personal trainers (Rehfeldt, 2025)
- Comparing the impact of personal trainer guidance to exercising with others: Determining the optimal approach (Lu, 2024)