Некоторые эксперты не считают, что технология готова к использованию в прайм-тайм.
Генеративный искусственный интеллект, который может создавать и анализировать изображения, текст, аудио, видео и многое другое, все чаще проникает в здравоохранение, продвигаемый как крупными технологическими фирмами, так и стартапами.
Google Cloud, подразделение облачных сервисов и продуктов Google, сотрудничает с Highmark Health, некоммерческой медицинской компанией из Питтсбурга, над созданием инструментов генеративного искусственного интеллекта, предназначенных для персонализации приема пациентов. Подразделение Amazon AWS заявляет, что работает с неназванными клиентами над способом использования генеративного искусственного интеллекта для анализа медицинских баз данных. А Microsoft Azure помогает создать генеративную систему искусственного интеллекта для Providence, некоммерческой сети здравоохранения, которая будет автоматически сортировать сообщения поставщикам медицинских услуг, отправленные от пациентов.
Среди известных стартапов в области генеративного ИИ в здравоохранении — Ambience Healthcare, которая разрабатывает приложение генеративного ИИ для врачей; Набла, помощник практиков по искусственному интеллекту; и Abridge, создающая инструменты аналитики для медицинской документации.
Широкий энтузиазм в отношении генеративного ИИ отражается в инвестициях в усилия по генеративному ИИ, ориентированные на здравоохранение. В совокупности генеративный ИИ в стартапах в сфере здравоохранения на сегодняшний день привлек десятки миллионов долларов венчурного капитала, и подавляющее большинство инвесторов в здравоохранении говорят, что генеративный ИИ существенно повлиял на их инвестиционные стратегии.
Но и специалисты, и пациенты неоднозначно относятся к вопросу о том, готов ли генеративный ИИ, ориентированный на здравоохранение, к использованию в прайм-тайм.
Генеративный ИИ может быть не тем, чего хотят люди
В недавнем опросе Deloitte только около половины (53%) потребителей в США заявили, что, по их мнению, генеративный искусственный интеллект может улучшить здравоохранение, например, сделав его более доступным или сократив время ожидания приема. Менее половины заявили, что генеративный ИИ сделает медицинскую помощь более доступной.
Эндрю Борковски, главный специалист по искусственному интеллекту в VA Sunshine Healthcare Network, крупнейшей системе здравоохранения Министерства по делам ветеранов США, не считает, что цинизм неоправдан. Борковски предупредил, что внедрение генеративного ИИ может быть преждевременным из-за его «значительных» ограничений и опасений по поводу его эффективности.
«Одной из ключевых проблем генеративного ИИ является его неспособность справляться со сложными медицинскими запросами или чрезвычайными ситуациями», — сказал он. «Его ограниченная база знаний — то есть отсутствие актуальной клинической информации — и недостаток человеческого опыта делают его непригодным для предоставления всесторонних медицинских консультаций или рекомендаций по лечению».
Некоторые исследования показывают, что этим утверждениям можно доверять.
В статье журнала JAMA Pediatrics было обнаружено, что чат-бот OpenAI с генеративным искусственным интеллектом ChatGPT, который некоторые медицинские организации опробовали для ограниченных случаев использования, совершает ошибки при диагностике педиатрических заболеваний в 83% случаев. А при тестировании GPT-4 от OpenAI в качестве ассистента диагностики врачи Медицинского центра Бет Исраэль Дьяконесса в Бостоне заметили, что модель оценивала неправильный диагноз как лучший ответ почти в двух случаях из трех.
Сегодняшний генеративный ИИ также борется с медицинскими административными задачами, которые являются неотъемлемой частью ежедневных рабочих процессов врачей. В тесте MedAlign, предназначенном для оценки того, насколько хорошо генеративный ИИ может выполнять такие задачи, как обобщение медицинских записей пациентов и поиск по заметкам, GPT-4 потерпел неудачу в 35% случаев.
OpenAI и многие другие поставщики генеративного ИИ предостерегают от использования их моделей в медицинских консультациях. Но Борковски и другие говорят, что могли бы сделать больше. «Опора исключительно на генеративный искусственный интеллект в здравоохранении может привести к ошибочным диагнозам, неподходящему лечению или даже к опасным для жизни ситуациям», — сказал Борковски.
Ян Эггер, возглавляющий терапию с использованием искусственного интеллекта в Институте искусственного интеллекта в медицине Университета Дуйсбург-Эссен, который изучает применение новых технологий для ухода за пациентами, разделяет опасения Борковски. Он считает, что единственный безопасный способ использования генеративного ИИ в здравоохранении в настоящее время находится под пристальным наблюдением врача.
«Результаты могут быть совершенно неверными, и осознавать это становится все труднее и труднее», — сказал Эггер. «Конечно, генеративный ИИ можно использовать, например, для предварительного написания увольнений. Но врачи обязаны проверить это и сделать окончательное решение».
Генеративный ИИ может увековечивать стереотипы
Одним из особенно вредных способов, с помощью которого генеративный ИИ в здравоохранении может ошибаться, является увековечивание стереотипов.
В исследовании 2023 года, проведенном в Стэнфордском медицинском университете, группа исследователей проверила ChatGPT и другие генеративные чат-боты на базе искусственного интеллекта по вопросам функции почек, объема легких и толщины кожи. Соавторы обнаружили, что ответы ChatGPT не только часто были ошибочными, но и включали в себя несколько подкрепленных давних ложных убеждений о том, что между чернокожими и белыми людьми существуют биологические различия — ложь, которая, как известно, заставляла медицинских работников неправильно диагностировать проблемы со здоровьем.
Ирония в том, что пациенты, которые, скорее всего, будут подвергаться дискриминации со стороны генеративного искусственного интеллекта в здравоохранении, также являются теми, кто, скорее всего, будет его использовать.
Опрос Deloitte показал, что люди, у которых нет медицинской страховки — цветные люди, в целом, согласно исследованию KFF — с большей готовностью попробуют генеративный ИИ для таких вещей, как поиск врача или психологическая помощь. Если рекомендации ИИ будут искажены предвзятостью, это может усугубить неравенство в обращении.
Однако некоторые эксперты утверждают, что генеративный ИИ в этом отношении совершенствуется.
В исследовании Microsoft, опубликованном в конце 2023 года, исследователи заявили, что с использованием GPT-4 они достигли точности 90,2% в четырех сложных медицинских тестах. Vanilla GPT-4 не смог достичь этого показателя. Но, по словам исследователей, благодаря оперативному проектированию — разработке подсказок для GPT-4 для получения определенных результатов — им удалось повысить оценку модели до 16,2 процентных пункта. (Стоит отметить, что Microsoft является крупным инвестором OpenAI.)
“Rigorous science”
Но хотя генеративный ИИ показывает многообещающие результаты в конкретных, узких областях медицины, такие эксперты, как Борковски, указывают на технические препятствия и препятствия, которые необходимо преодолеть, прежде чем генеративный ИИ сможет стать полезным и заслуживающим доверия в качестве универсального вспомогательного инструмента здравоохранения.
«Использование генеративного искусственного интеллекта в здравоохранении вызывает серьезные проблемы с конфиденциальностью и безопасностью», — сказал Борковски. «Конфиденциальный характер медицинских данных и возможность неправильного использования или несанкционированного доступа создают серьезные риски для конфиденциальности пациентов и доверия к системе здравоохранения. Кроме того, нормативно-правовая база, окружающая использование генеративного ИИ в здравоохранении, все еще развивается, и вопросы, касающиеся ответственности, защиты данных и медицинской практики нечеловеческими существами, все еще требуют решения».
Даже Тирунавукарасу, оптимистично настроенный в отношении генеративного ИИ в здравоохранении, говорит, что за инструментами, ориентированными на пациентов, должна стоять «строгая наука».
«Особенно без прямого клинического надзора должны быть проведены прагматичные рандомизированные контрольные исследования, демонстрирующие клиническую пользу, чтобы оправдать развертывание генеративного ИИ, ориентированного на пациента», — сказал он. «Правильное управление в будущем имеет важное значение для предотвращения любого непредвиденного ущерба после масштабного развертывания».
Недавно Всемирная организация здравоохранения выпустила руководящие принципы, которые пропагандируют этот тип научного и человеческого надзора за генеративным ИИ в здравоохранении, а также введение независимых третьих сторон аудита, прозрачности и оценки воздействия на этот ИИ. Целью, как поясняет ВОЗ в своих руководящих принципах, будет поощрение участия различных групп людей в разработке генеративного искусственного интеллекта для здравоохранения, а также возможность выражать обеспокоенность и вносить свой вклад на протяжении всего процесса.
«Пока проблемы не будут адекватно решены и не будут приняты соответствующие меры защиты», — сказал Борковски, — «широкомасштабное внедрение медицинского генеративного искусственного интеллекта может быть… потенциально вредным для пациентов и отрасли здравоохранения в целом».