Найти тему

Государственная служба здравоохранения Великобритании обдумывает роль ИИ в принятии медицинских решений.

Оглавление

Во многих областях промышленности и исследований люди в восторге от искусственного интеллекта (ИИ). Нигде больше, чем в медицине, где ИИ обещает сделать клиническую помощь лучше, быстрее и дешевле.

В прошлом году премьер-министр Великобритании Тереза ​​Мэй заявила, что «новые технологии делают уход более безопасным, быстрым и точным и позволяют проводить более раннюю диагностику».

Поддержка развития медицинского ИИ рассматривается в Великобритании как важный шаг в улучшении предоставления медицинской помощи для Национальной службы здравоохранения (NHS) - правительство Великобритании недавно объявило о проведении «Большой задачи», сосредоточив внимание на возможности ИИ для ускорения медицинских исследований и привести к улучшению диагностики, профилактики и лечения заболеваний.

Компании и научно-исследовательские институты заявляют, что системы искусственного интеллекта могут превзойти врачей в диагностике заболеваний сердца, выявлении рака кожи и проведении операций, и поэтому легко понять, почему идея «доктора Робота» придет в революцию в здравоохранении и спасет неимущее государственное здравоохранение Такой привлекательный.

Но поскольку медицинские инструменты с поддержкой ИИ разрабатываются и охватывают аспекты здравоохранения, вопрос медицинской ответственности необходимо будет решить.

Чья это вина?

Когда результат медицинского лечения не тот, на который надеялись, как это неизбежно имеет место для некоторых пациентов, иногда возникает проблема медицинской халатности. Когда что-то идет не так, пациенты или их близкие могут захотеть узнать, была ли это чья-то вина.

Медицинская халатность в Великобритании - это устоявшаяся область права, которая стремится сбалансировать ожидания пациента относительно надлежащего ухода с необходимостью защиты врачей, которые действовали компетентно, но не смогли достичь положительного результата. Как правило, врачи не считаются небрежными, если они следовали принятой медицинской практике.

В Руководящих принципах Главного медицинского совета Великобритании говорится, что врачи могут делегировать уход за пациентом коллеге, если они убеждены, что коллега обладает достаточными знаниями, навыками и опытом, чтобы обеспечить лечение, но ответственность за общее обслуживание пациента остается за делегирующим врачом.

Точно так же хирург, использующий роботизированный хирургический инструмент, будет нести ответственность за пациента, даже если робот будет полностью автономным. Но что, если, без ведома хирурга, была ошибка в базовом коде робота? Будет ли справедливо обвинять хирурга или вина лежит на изготовителе робота?

В настоящее время многие из разрабатываемых медицинских решений ИИ не предназначены для автономного использования. Они сделаны в качестве инструмента для медицинских работников, которые используются в их работе для повышения эффективности и результатов лечения пациентов. В этом они похожи на любой другой медицинский инструмент, который уже используется - ничем не отличается, например, от МРТ-сканера.

Если инструмент неисправен, врач все равно может быть подвергнут риску медицинской халатности, хотя в этом случае больница или практикующий врач могут подать отдельный иск против производителя продукта. То же самое относится и к продуктам ИИ, но по мере того, как они приобретают больше автономии, возникают новые вопросы об ответственности.

Использование решений ИИ для принятия решений может привести к проблеме «черного ящика»: хотя входные данные и выходное решение известны, точные шаги, предпринятые программным обеспечением для достижения решения по данным, не всегда могут быть отслежены. Если решение о результатах неверно, может быть невозможно восстановить причину, по которой программное обеспечение достигло определенного результата.

В ситуации, когда устройство ИИ соответствует или превосходит медицинского специалиста по определенной медицинской проблеме, устройство статистически обеспечивало бы лучшую помощь, если бы в среднем (и со статистической значимостью) пациенты получали лучшие результаты, посещая «Dr Robot». », А не« Доктор Человек ».

Хотя д-р Робот мог бы в целом работать лучше, например, правильно диагностируя 98 процентов времени по сравнению с 95-процентным показателем успеха д-ра Хумана, может быть небольшое число крайних случаев, для которых д-р Робот достигает неверного результата, где правильный результат будет очевиден для врача. Юридически медицинская халатность возникает, если врач не может сделать то, что сделал бы разумный врач.

Если автономная система ИИ принимает решение, которого не мог бы принять ни один разумный врач, у отдельного пациента были бы основания требовать медицинской халатности, даже если в целом у всех пациентов система ИИ достигает лучших результатов.

Вопрос для неправильно диагностированного пациента будет таким: на кого мне подавать в суд?

Инновационные решения

Одним из ответов на это могут быть новые модели страхования для инструментов ИИ. В прошлом году США дали первое в истории медицинское разрешение на автономное устройство искусственного интеллекта для сканера сетчатки IDx-DR. Этот инструмент работает независимо, без надзора медицинского работника, чтобы оценить, нужно ли пациенту обратиться к врачу.

Разработчики инструмента, IDx, имеют медицинскую страховку по халатности, чтобы защитить компанию от проблем ответственности, и специальные пакеты страхования ИИ возникли, чтобы удовлетворить эту развивающуюся потребность.

Вместо того, чтобы каждый медицинский инструмент имел собственную страховку, была предложена идея правительственного решения. Организация может оценить риск каждого продукта ИИ и позволить разработчику продукта коммерциализировать его в обмен на уплату регулятору соответствующей «платы за риск».

В таком случае сбор будет финансировать пул для выплат в случае неисправности ИИ. Это решение, иногда называемое реестром Тьюринга (или Агентством ЕС по робототехнике и искусственному интеллекту, как предложено Европейским парламентом), обойдет проблему «черного ящика», поскольку реестр будет оплачивать претензии, связанные с сертифицированным реестром продуктом ИИ. , без необходимости определения первопричины проблемы.