Дискуссия по отслеживанию контактов подчеркивает актуальность решения нерегулируемых технологий, таких как искусственный интеллект (ИИ). Швейцария, обладающая сильной демократией и репутацией в области первоклассных исследований, потенциально может быть на переднем крае формирования этического ИИ.
Автор Сара Ибрагим
Что такое искусственный интеллект (ИИ)? «Искусственный интеллект - это лучшее или худшее, что когда-либо случалось с человечеством», - сказал однажды известный ученый Стивен Хокинг, умерший в 2018 году.
Группа экспертов, созданная Европейской комиссией, представила проект руководства по этике для заслуживающего доверия ИИ в конце 2018 года, но на данный момент не существует согласованной глобальной стратегии определения общих принципов, которая включала бы правила о прозрачности, защите конфиденциальности, объективности и справедливость.
Благодаря своим уникальным характеристикам - сильной демократии, нейтральной позиции и исследованиям мирового уровня - Швейцария имеет все возможности играть ведущую роль в формировании будущего ИИ, придерживающегося этических стандартов. Швейцарское правительство признает важность искусственного интеллекта для продвижения страны вперед и с учетом этого принимает участие в дискуссиях на международном уровне.
Что такое ИИ?
Единого общепринятого определения искусственного интеллекта не существует. Часто его разделяют на две категории: «Искусственный общий интеллект» (AGI), который стремится точно копировать поведение человека, в то время как «Узкий искусственный интеллект» фокусируется на отдельных задачах, таких как распознавание лиц, автоматические переводы и рекомендации по контенту, такого как видео на YouTube.
Однако на внутреннем фронте дебаты только начались, хотя и серьезные, поскольку Швейцария и другие страны сталкиваются с проблемами конфиденциальности, связанными с использованием новых технологий, таких как приложения для отслеживания контактов, используют ли они ИИ или нет, чтобы остановить распространение COVID-19.
Европейская инициатива - общеевропейская инициатива по отслеживанию сближения с сохранением конфиденциальности PEPP-PT - пропагандировала подход централизованных данных, который вызывал обеспокоенность по поводу ее прозрачности и управления. Тем не менее, она было сорвана, когда ряд стран, в том числе Швейцария, приняли решение в пользу децентрализованной и улучшающей конфиденциальность системы, названной DP-3T (Децентрализованное отслеживание сближения с сохранением конфиденциальности). Последней каплей для PEPP-PT стало решение Германии выйти из нее.
«Европа вовлеченно и активно обсуждает достоинства централизованного и децентрализованного подхода к отслеживанию близости. Эти дебаты оказались очень полезными, поскольку они познакомили с проблемой широкие слои населения и продемонстрировали высокий уровень озабоченности о том, как эти приложения проектируются и создаются. Люди будут использовать приложение отслеживания контактов, только если они чувствуют, что им не нужно жертвовать своей частной жизнью, чтобы выйти из изоляции», - сказал Джим Ларус.
Ларус является деканом Школы компьютерных и коммуникационных наук (IC) в EPFL Лозанна и членом группы, которая первоначально начала работу DP3T в EPFL.
Согласно недавнему опросу, почти две трети граждан Швейцарии заявили, что они выступают за отслеживание контактов. Приложение DP-3T в настоящее время тестируется в пробном режиме, ожидая определения правовых условий его широкого использования, как это было решено швейцарским парламентом. Тем не менее, дебаты подчеркивают актуальность ответов на вопросы, касающиеся этики и управления нерегулируемыми технологиями.
"Швейцарский путь"
Искусственный интеллект был впервые включен в стратегию правительства Швейцарии по созданию надлежащих условий для ускорения цифровой трансформации общества.
В декабре прошлого года рабочая группа представила свой доклад Федеральному совету (исполнительному органу) под названием «Вызовы искусственного интеллекта». В отчете указывалось, что Швейцария готова использовать потенциал ИИ, но авторы решили не особо выделять этические проблемы и социальные аспекты ИИ, сосредоточившись вместо этого на различных случаях использования ИИ и возникающих проблемах.
«В Швейцарии центральное правительство не навязывает всеобъемлющее этическое видение искусственного интеллекта. Было бы несовместимо с нашими демократическими традициями, если бы правительство предписало это сверху вниз», - говорит Даниэль Эглофф, глава отдела инноваций Государственного секретариата по образованию, исследованиям и Инновации (SERI) рассказал swissinfo.ch. Эглофф добавил, что абсолютные этические принципы установить сложно, поскольку они могут меняться от одного технологического контекста к другому. «Этическое видение ИИ появляется в ходе консультаций между национальными и международными заинтересованными сторонами, включая общественность, и правительство принимает активное участие в этих дебатах», - добавил он.
В более широком контексте правительство настаивает на том, что оно активно участвует на международном уровне, когда речь заходит об обсуждении вопросов этики и прав человека. Посол Томас Шнайдер, директор по международным делам Федерального управления связи (OFCOM), сказал swissinfo.ch, что Швейцария в этом отношении «является одной из самых активных стран в Совете Европы, в Организации Объединенных Наций и других форумах».
Он также добавил, что амбиции OFCOM и МИД в том, чтобы превратить Женеву в глобальный центр управления технологиями.
Просто еще одно модное слово?
Как тогда можно определить, что этично или неэтично, когда речь заходит о технологиях? По словам Паскаля Кауфмана, нейробиолога и основателя Фонда Mindfire Foundation для ИИ, ориентированного на человека, концепция этики, применяемая к ИИ, является еще одним модным словом: «Существует много путаницы в значении ИИ. То, что многие называют «ИИ», имеет мало связи с интеллектом и гораздо больше с компьютерными вычислениями.
Вот почему нет смысла говорить об этическом ИИ. Чтобы быть этичным, я предлагаю поторопиться и создать ИИ для людей, а не для самодержавных правительств или для крупных технологические компании. Изобретая этическую политику, мы никуда не денемся и не поможем нам создать ИИ».
Анна Джобин, постдок из Лаборатории этики и политики в области здравоохранения в ETH Zurich, не видит этого одинаково. Основываясь на своих исследованиях, она считает, что этические соображения должны быть частью развития ИИ: «Мы не можем рассматривать ИИ как чисто технологический и добавить в конце некоторые этические нормы, но этические и социальные аспекты должны быть включены в обсуждение с самого начала».
Поскольку влияние ИИ на нашу повседневную жизнь будет только расти, Джобин считает, что граждане должны участвовать в дебатах о новых технологиях, использующих ИИ, и что решения об ИИ должны включать гражданское общество. Тем не менее, она также признает пределы перечисления этических принципов в случае отсутствия этического управления.
Для Питера Зеле, профессора деловой этики в USI, Университете итальянской язычной Швейцарии, ключ к решению этих проблем заключается в том, чтобы поставить бизнес, этику и право на равное основание.
«Предприятия привлекаются нормативными актами. Им нужна правовая база для процветания. Хорошие законы, которые объединяют бизнес и этику, создают идеальную среду для всех участников», - сказал он. Задача состоит в том, чтобы найти баланс между тремя столпами.
Идеальное сочетание
Даже если швейцарский подход в основном опирается на саморегулирование, Зеле утверждает, что создание правовой базы дало бы значительный импульс экономике и обществу.
Если бы Швейцария взяла на себя ведущую роль в определении этических стандартов, ее политическая система, основанная на прямой демократии и демократически контролируемых кооперативах, могла бы сыграть центральную роль в создании основы для демократизации ИИ и экономики личных данных. Как предложила Швейцарская академия инженерных наук SATW в официальном документе в конце 2019 года, моделью для этого может быть швейцарский MIDATA, некоммерческий кооператив, который обеспечивает суверенитет граждан над использованием их данных, выступая в качестве доверенного лица для сбора данных. Владельцы учетной записи могут стать членами MIDATA, участвуя в демократическом управлении кооперативом. Они также могут разрешить выборочный доступ к своим личным данным для клинических исследований и медицинских исследований.
Появление экосистемы открытых данных, способствующей участию гражданского общества, повышает осведомленность о последствиях использования персональных данных, особенно по состоянию здоровья, как в случае приложения отслеживания контактов. Даже если утверждается, что предпочитаемая децентрализованная система лучше защищает основные права, чем централизованный подход, существуют опасения относительно подверженности кибератакам.
Создание правовой основы для искусственного интеллекта может привести к публичным дебатам относительно обоснованности и этики цифровых систем.