Найти в Дзене
Виктор Трибунский

Советуетесь с ИИ относительно здоровья? Учтите некоторые моменты!

Доктора теперь всё чаще встречают пациентов, гораздо лучше информированных в вопросах функционирования собственного организма и задающих уточняющие вопросы, чем раньше. В чём дело? Сегодня, кроме врача, люди консультируются с чат-ботами вроде ChatGPT и даже иногда не воспринимают точку зрения сидящего перед ними специалиста как заслуживающую большего доверия. Наш сегодняшний собеседник — доктор Шайли Гупта (Dr. Shaili Gupta), доцент кафедры общей медицины Йельского университета, но сначала уточним термины. Слово «чат-бот», а изначально «chatter-bot», состоит из двух слов: первое в английском языке означает «непринуждённый разговор», по сути «болтовня»; а второе — сокращение от «robot» — автоматизированная программа, выполняющая действия по заданному алгоритму. Таким образом, беседуя с чат-ботом (ещё его называют ИИ или нейросетью), помните, что вы общаетесь с автоматическим болтуном. Кстати, ИИ (искусственный интеллект) — это перевод с английского «artificial intelligence», но первое с
Оглавление

Доктора теперь всё чаще встречают пациентов, гораздо лучше информированных в вопросах функционирования собственного организма и задающих уточняющие вопросы, чем раньше. В чём дело? Сегодня, кроме врача, люди консультируются с чат-ботами вроде ChatGPT и даже иногда не воспринимают точку зрения сидящего перед ними специалиста как заслуживающую большего доверия.

Наш сегодняшний собеседник — доктор Шайли Гупта (Dr. Shaili Gupta), доцент кафедры общей медицины Йельского университета, но сначала уточним термины.

Слово «чат-бот», а изначально «chatter-bot», состоит из двух слов: первое в английском языке означает «непринуждённый разговор», по сути «болтовня»; а второе — сокращение от «robot» — автоматизированная программа, выполняющая действия по заданному алгоритму.

Таким образом, беседуя с чат-ботом (ещё его называют ИИ или нейросетью), помните, что вы общаетесь с автоматическим болтуном.

Кстати, ИИ (искусственный интеллект) — это перевод с английского «artificial intelligence», но первое слово в языке оригинала имеет ещё одно значение — фальшивый, поэтому вы разговариваете с автоматическим болтуном, наделённым фальшивым интеллектом.

В одном случае, вспоминает доктор Гупта, человек почувствовал боль в груди, обратился за консультацией к чат-боту и получил заключение, что дела у него плохи. Даже последующая тщательная проверка параметров работы сердца, показавшая, что с ним всё в порядке, его не разубедила — он больше доверял электронному роботу с фальшивым интеллектом.

«Иногда пациента чрезвычайно сложно убедить, что характер его боли не сердечного происхождения, даже несмотря на то, что тщательное тестирование позволило обнаружить истинную причину», — говорит доктор Гупта. «Чат-боты обучены так, чтобы сразу же предположить наиболее серьёзную причину жалобы человека и тем самым побудить его срочно обратиться к врачу».

Согласно недавнему отчету компании OpenAI, разработавшей ChatGPT, ежедневно более 40 миллионов человек используют её бот для получения информации о здоровье. Совсем недавно оба сервиса — ChatGPT и Claude, серия языковых моделей, разработанных компанией Anthropic, — объявили о запуске услуг предоставления потребителям советов в области здоровья.

Однако специалисты предупреждают, что чат-боты часто предоставляют ложные и даже вредные рекомендации людям, пытающимся самостоятельно диагностировать заболевания или заниматься самолечением, особенно когда речь идет о вопросах, касающихся психики. Это осложняет работу настоящих врачей.

«С одной стороны, эти программы обеспечили доступный источник информации в области здоровья, что замечательно, — говорит доктор Гупта, — но с другой, теперь пациенты сначала получают массу различной информации,  а затем приходят на прием, где мы вынуждены отделять семена от плевел, фактически занимаясь их просвещением и переориентацией и опровергая дезинформацию».

В Йельском университете доктор Гупта также является директором программы, обеспечивающей граждан углубленной информацией в области искусственного интеллекта, машинного обучения и клинических приложений.

Почему люди обращаются к чат-ботам как к источнику информации о здоровье?

А потому что у чат-ботов всё просто. Они переводят сложную медицинскую терминологию на понятный людям язык. Чат-боты легко объясняют, что представляет собой процесс того или иного заболевания, что означает тот или иной симптом, что спросить у врача и какие анализы сдать. При этом они выступают экстракторами, извлекая и обобщая краткую информацию из огромного объема существующих медицинских данных.

Кроме того, чат-боты антропоморфны. Их научили использовать личные местоимения типа «ты» и «я», чтобы пользователь воспринимал получаемую информацию как при разговоре с человеком. Таким образом легко возникает впечатление дружеского общения, получения консультации или даже авторитетности «собеседника».

Общение кажется тёплым, простым и безопасным, и всё наговорённое «экспертом» можно просто проигнорировать. С настоящим врачом не в пример сложнее.

Подобная персонификация увеличивает риск развития чрезмерного доверия — электронной программе вы доверяете больше, чем настоящему специалисту.

Есть ли польза от чат-ботов в получении медицинских рекомендаций?

Чат-боты уравнивают права людей и это неплохо, ведь человек, сидящий в дальнем углу мира, где до ближайшего врача пара суток пути, может получить ту же информацию, что и житель одной из мировых столиц. В этом смысле чат-боты обеспечивают равноправие в сфере здравоохранения, хотя вопрос ответственности за генерируемые ими советы остаётся.

Еще один плюс — чат-бот общается с человеком на его языке.

Другое полезное применение чат-ботов — это область помощи людям, ухаживающим за пациентами. Некоторые программы работают практически как приходящие медсестры, напоминая принять лекарство, давая рекомендации по образу жизни и направляя подопечных к нужным медицинским специалистам.

Каков риск использования чат-ботов для получения медицинских рекомендаций?

Самый большой— излишнее доверие к нему. Как я уже говорила, чат-боты обучены использовать местоимения применительно к самим себе и к пользователю, поэтому общение с электронным болтуном приобретает разговорный характер, мы начинаем доверять собеседнику сильнее, чем больше и чаще взаимодействуем с ним, особенно если это диалог тет-а-тет.

Излишняя доверчивость опасна!

Польза и риски консультирования по вопросам здоровья с чат-ботами будут зависеть и от того, каким образом IT-индустрия отрегулирует подобные инструменты, как пользователи будут взаимодействовать с ними, как их интегрируют в систему оплаты и каково будет участие медицинских учреждений.

Другой риск — иллюзии восприятия (их называют «галлюцинациями»), когда чат-боты опускают важные детали или наоборот вставляют в свои ответы лишнюю, ненужную и невесть откуда взявшуюся информацию.

Подпишитесь на нас, где вам удобнее: МАХ, Telegram или ОК

Самый опасный чат-бот имеет один из трёх признаков, которые я называю «три С»: он кажется слишком компетентными, слишком убедительным или слишком категоричным. Например, если он выражает полную уверенность в своих выводах, проявляет твердость или даже настойчивость, а внутренняя логика его алгоритма не предусматривает гибкости, позволяющей вносить изменения и давать скорее подсказки, нежели однозначные рекомендации, то он просто опасен для человека.

Подчинение такому чат-боту может привести к проблемам, таким как недоверие к настоящим врачам и неправильным действиям для собственного «исцеления».

Что в будущем?

Я бы рекомендовала использовать чат-боты главным образом для получения информации, но не для постановки диагноза. Чат-боты никогда не должны уверенно ставить диагноз, хорошая программа лишь помогает лучше разобраться в потоке информации.

Полезно знать: Пять важных нутриентов, содержащихся только в мясе

Настоящего врача заменить невозможно, потому что он способен провести физический осмотр, а робот — нет. Еще важнее то, что врач обладает интуицией, имеет опыт и способен сопереживать пациенту. Врач знает, что такое боль, а робот — нет.

Чат-бот — это лишь помощник врача, иногда весьма неплохой, но никак не замена.

Автор: Meg Dalton, Yale University
Перевод:
Виктор Трибунский
Источник