Пациенты всё чаще приходят на приём, вооружённые не советами друзей или диагнозами «доктора Гугл», а рекомендациями от ChatGPT. Генеративные модели формулируют медицинские гипотезы уверенно, используя профессиональный язык и логичную аргументацию. Это изменяет динамику взаимодействия между врачом и пациентом, заставляя клиницистов не только объяснять решения, но и защищать их. И хотя это точки зрения пациента, это выглядит как новая осознанность, последствия такой самодиагностики могут быть неожиданными — и опасными.
Новая эра пациентской автономии
То, что пациенты приходят на приём с заранее собранной информацией, давно стало нормой. Однако генеративный ИИ, такой как ChatGPT, заметно изменил характер этих взаимодействий. Истории о том, как генеративный ИИ меняет динамику визита, уже фиксируются в профильных журналах.
В опубликованном в JAMA случае, семейный врач Кумара Раджа Сундар описывает пациентку, которая сформулировала жалобу на головокружение чётко и по-медицински точно — «это не вертиго, а скорее предобморочное ощущение». Врач поначалу даже предположил, что перед ним коллега, однако, оказалось, что диагноз и предложение провести тест с наклонным столом пациентка получила от ChatGPT.
Подобные случаи становятся всё более частыми: пациенты приходят с клиническими терминами, точными вопросами, сформулированными ИИ, и всё чаще — с ожиданием, что врач просто утвердит готовый сценарий лечения.
Врачам приходится объяснять, почему предложенные тесты, как тот же тест с наклонным столом, не назначаются при каждом случае головокружения, и почему гипердиагностика может навредить. Проблема в том, что, как отметил Сундар, что у ChatGPT нет «функции», которая бы напоминала, что запись на исследование может занимать месяцы, а у клиник ограничен доступ к лабораторной базе.
ИИ может помочь пациенту найти термины и гипотезы, но не может учесть клинический контекст, логистику, доступность ресурсов и врачебное суждение — всё это по-прежнему зона ответственности врача.
Риски советов без клинического опыта
Риски самоназначений на основе ответов ИИ уже выходят за рамки теории. В США 60-летний мужчина, следуя рекомендациям ChatGPT «заменить обычную соль на более здоровую», перешёл на бромид натрия. Через несколько недель он начал испытывать тревожность, бессонницу, сыпь, галлюцинации и паранойю. Его госпитализировали с диагнозом «бромизм» — редким, но серьёзным токсическим состоянием, которое в прошлом было частой причиной психиатрических госпитализаций.
Как выяснилось, ChatGPT порекомендовал бромид натрия как «более безопасную соль» без учёта его токсичности. В результате — психоз, госпитализация и диагноз, давно исчезнувший из современных руководств. Случай наглядно продемонстрировал, насколько легко пациенты могут воспринять ответ ИИ как авторитетную истину, не обладая фильтрами для критической оценки. Даже безобидные на первый взгляд рекомендации требуют медицинской проверки.
Врач и «ИИ-пациент»: как не потерять доверие
Изменения и подготовленность пациентов влияет и на восприятие и отношение врачей. Тон пациента, точность терминов и структура запроса формируют ощущение, что его клиническое суждение подвергается сомнению, отмечает Сундар. Он всё чаще предполагает, что источник знаний — именно ИИ, а не поисковик или совет знакомого врача.
Для медицинского сообщества это становится вызовом: пациент уже не просто задаёт вопросы, он приходит с готовым планом и ожидает согласия — или убедительного опровержения.
Практика подсказывает рабочую модель коммуникации. На первом шаге — признать вовлечённость пациента: обсудить, что именно он узнал, какие доводы показались убедительными и чего он опасается. Затем перевести разговор в клиническую плоскость: показать, как учебные алгоритмы соотносятся с конкретной картиной, где польза перевешивает риск, а где нет. Кроме того, объяснить организационные ограничения и реальную доступность исследований. Такой «двухшаговый» подход — эмпатия, затем клиника — снижает оборонительность по обе стороны стола и возвращает врачу ключевую роль координатора, а не «проверяющего ответы ИИ». Пациенты ищут не только ответ, но и чувство, что их услышали, подчеркивает Сундар.
То, что началось как американский феномен, уже стало международной нормой: врачи в Европе и России всё чаще сталкиваются с подготовленными ИИ пациентами, которые приходят с гипотезами по витамину D, гормонам, дерматологическим находкам с телефона и онкоскринингу «по чек-листу». Здесь стратегия та же: включать «ИИ-запрос» пациента в анамнез, фиксировать, что именно было прочитано и почему это важно для него, давать короткие разъяснения по показаниям и противопоказаниям. Правильно встроенный в приём «ИИ-контекст» экономит время и снижает вероятность конфликтов — а игнорирование или сарказм, наоборот, его повышают.
Генеративный ИИ сделал пациентов более подготовленными — и одновременно уязвимыми к уверенным, но неверным советам. Врач остаётся тем, кто привносит контекст: клинический, организационный и этический. Когда клиника превращает «ИИ-знание» пациента из угрозы в ресурс, выигрывают все: меньше ненужных тестов, больше осознанных решений и крепче доверие — главный дефицит современной медицины.