Искусственный интеллект (ИИ) – это уже не область научной фантастики. Он воспринимается как наиболее перспективная технология, начиная с XXI века, которая обладает огромным социальным и экономическим потенциалом. Началась виртуальная гонка между странами за лидерство в этой области, и крупные технологические компании инвестируют миллиарды долларов в исследования искусственного интеллекта.
Здравоохранение, вместе с мобильными разработками и энергетикой – это одни из первых кандидатов на внедрение искусственного интеллекта.
Действительно, различные клинические и ориентированные на пациента приложения уже вошли в медицинскую практику. Это и GP, которая всегда под рукой, и приложение на базе Babylon Health, которое оценивает известные симптомы и факторы риска для предоставления обоснованной медицинской информации, а также алгоритм глубокого изучения, разработанный Google для обнаружения диабетической ретинопатии на фотографии сетчатки или, например, изображения, разработанные DeepMind в сотрудничестве с Moital Efius.
Возможно, эти и другие виды разработок облегчат нагрузку на медицинский персонал, снизят затраты и, в конечном счете, улучшат жизнь пациентов. Но революции редко происходят без побочных эффектов. В связи с уникальными свойствами и рисками, присущими технологиям искусственного интеллекта, были высказаны различные опасения. Была даже высказана мысль о том, что искусственный интеллект мог бы внести новый элемент в среду здравоохранения, и применяемые к ней отношения могут полностью изменить их.
В апреле 2011 года Европейская комиссия обнародовала стратегию для Европы и поручила ее осуществление группе экспертов по искусственному интеллекту. В частности, в том, что касается этических и правовых последствий.
Термин "искусственный интеллект" был первоначально придуман Джоном Маккарти. Однако общепризнанного определения не существует. Европейская Комиссия предложила такое определение:
"системы, которые демонстрируют разумное поведение, анализируя окружающую среду и принимая меры - с определенной степенью автономии - для достижения конкретных целей".
Искусственный интелект может быть: программным (то есть отдельным от устройства), и сразу встроенным в аппаратные устройства.
Алгоритм ИИ состоит из двух отдельных алгоритмов, работающих параллельно: "обучающийся" и "классификатор". Обучающийся алгоритм исследует большие массивы данных. Матрица, полученная из таких данных, постоянно обновляется, и в результате с помощью алгоритма мы получаем окончательную модель, которая затем используется классификатором для анализа новых входных данных, также называемых "признаками" и для определения результата как реальной цели.
Результаты обычно включают балл вероятности (например, 0.8), отражающий уверенность алгоритма в отношении этого "прогноза". Так называемое «глубинное обучение» использует искусственные нейронные сети - набор простых обучаемых математических единиц (нейронов), которые взаимодействуют для вычисления сложных функций. Нейроны организованы в слои, где каждый слой учится у слоя ниже него. Таким образом, поднимаясь по лестнице, сеть изучает закономерности данных.
Этот способ преобразования данных в "знания" в качестве основы для "прогнозирования" можно назвать "принятием решений". Различные технические аспекты этого процесса принятия решений вызывают опасения, которые могут иметь этический и юридический характер. Можно выделить следующие проблемы: предвзятые данные обучения, неубедительные корреляции, разборчивость, неточность и дискриминационные результаты.
Поскольку ИИ так сильно зависит от данных, на которых проводится обучение алгоритму, основные вопросы касаются неверных вводных данных. Таким образом, если базовые наборы данных показывают уже существующие стереотипы и убеждения в отношении меньшинств или других малораспространенных групп, распространенных в обществе, алгоритмы будут непреднамеренно использовать и воспроизводить их в своих выводах. Поскольку расовые и гендерные различия скрыты практически во всех сферах жизни нашего общества, системы ИИ вполне могут обнаружить даже очень тонкие закономерности.
Исследование, опубликованное в журнале Science, показало, что семантическая модель, основанная на текстах из Интернета, воспроизводит многие существующие стереотипы, например, связывая бытовые термины с женщинами. Кроме того, классификаторы ИИ обычно улучшаются с увеличением объема данных, а данных о меньшинствах, естественно, меньше. Вполне возможно, что надлежащее использование инструментов искусственного интеллекта избавит его от обвинений в ошибочности.
Регулирование медицинских изделий является основой для контроля безопасности и эффективности систем искусственного интеллекта, используемых в здравоохранении. Существуют серьезные сомнения в том, что общая картина риска оправдывает принятие Директивы об ответственности за неинтегрированное программное обеспечение для различных отраслей промышленности в целом.
Таким образом, должна быть введена строгая ответственность в рамках регулирования медицинских изделий, с учетом так называемых "рисков развития ", особенно в контексте медицинских изделий в виде неинтегрированного программного обеспечения.
В качестве альтернативы, медицинские изделия могут быть включены в статью 2 Директивы об ответственности за продукцию.
Есть опасения, что такие системы могут привести к неэтичному или даже незаконному поведению. Часто приводимый пример - чатбот Microsoft "Тэй", который выучил расистские и сексистские высказывания. И разработчик может заявить, что такое "самообразование" вне его контроля. Таких ошибок в разработках можно избежать путем тщательного тестирования и "замораживания" алгоритма на время, а также отключения онлайн-обучения или, по крайней мере, ограничения такого непрерывного обучения. В тех случаях, когда такие меры не принимаются, имеются веские основания полагать, что имела место халатность со стороны разработчика.
Если технологии становятся широко распространенными и их возможности превосходят возможности человеческого разума, то к ним следует относиться с должным вниманием. Кроме того, есть озабоченность по поводу ситуаций, когда решения человека вступают в конфликт с алгоритмическими решениями.
С точки зрения соответствующих технологий можно сделать вывод, что существующие законы и этические концепции в значительной степени подходят для решения большинства проблем, в отношении предвзятости, непрозрачности и неспособности точно смоделировать реальный мир с помощью ИИ. Закон также должен позволить разработчикам устанавливать ограничения в отношении таких категорий, как пол, возраст или раса, чтобы избежать несправедливых результатов, не подвергая их риску судебных исков.