Европейский союз обсуждает возможность запрета на использование искусственного интеллекта, в том числе в таких сферах, как массовое наблюдение и социальные кредитные рейтинги. Об этом сообщило издание Politico со ссылкой на разработанный документ .
Согласно проекту, ЕС должен будет создать совет по искусственному интеллекту, состоящий из представителей всех его стран-членов, а также ввести специальные комиссии для тестирования, проверки и оценки систем искусственного интеллекта. Компании, которые разрабатывают или продают запрещенные системы ИИ в обход европейской комиссии, могут быть оштрафованы до 4% годового дохода.
Что предусматривает проект
- В первую очередь документ ограничивает работу систем ИИ, которые отслеживают людей и собирают данные о них в физических средах. Программы, которые создают кредитные рейтинги на основе социального поведения или личностных качеств, также могут оказаться под запретом.
- Предполагается, что организациям необходимо будет иметь специальное разрешение на использование систем биометрической идентификации. К ним относится распознавание лиц в общественных местах.
- В документе также говорится о надзоре за системами ИИ, которые представляют прямую угрозу безопасности человека. Речь идет о беспилотных автомобилях и программах, которые могут повлиять на чье-то решение о найме человека на работу или, например, вердикт суда.
- Кроме того, как ожидают авторы проекта, ИИ должны будут обучаться на проверенных высококачественных наборах данных.
Некоторые пункты нуждаются в доработке. По словам аналитика некоммерческой организации по защите цифровых прав людей во всем мире Access Now Дэниела Леуфера, запрещенные системы искусственного интеллекта описаны в документе расплывчато, в нем содержатся формулировки, которые могут создать серьезные лазейки.
Пока неизвестно, какие еще изменения внесут в этот проект. Официальный релиз документа ожидается 21 апреля, после чего он будет дорабатываться Европарламентом при участии всех членов-государств ЕС.
Какие еще ИИ могут попасть под запрет в ЕС
Европейский союз также говорит о том, чтобы запретить автоматическое распознавание половой и сексуальной ориентации и внедрение такой технологии во всем мире.
- Правительства разных стран и компании все больше используют системы ИИ для идентификации и отслеживания людей, например, в аэропортах. Многие из таких систем разделяют людей на две группы — мужчин и женщин. И последствия для тех, пол которых не совпадает с полом, указанным в паспорте, могут быть серьезными.
- В случае автоматического распознавания пола системы с искусственным интеллектом обычно полагаются на устаревшее понимание гендера. Например, если у кого-то короткие волосы, его классифицируют как мужчину, если они окрашены — как женщину. Подобные предположения сделаны на основе биометрических данных, таких как структура костей и форма лица.
- Власти ЕС подчеркивают, что такие действия со стороны ИИ ошибочны с точки зрения науки и ставят под угрозу жизнь представителей ЛГБТ-сообществ. Ошибка программы может способствовать дискриминации миллионов людей по половому или расовому признаку в любой стране.
- В ЕС также придерживаются позиции, что запрет подобных алгоритмов ИИ необходим потому, что этими технологиями могут воспользоваться злоумышленники.
- Дэниел Леуфер, политический аналитик группы цифровых прав Access Now, которая возглавляет кампанию по запрету таких технологий, говорит, что системы ИИ несовместимы с приверженностью ЕС по соблюдению прав человека.
Проблемы и ошибки искусственного интеллекта
- В июле 2019 года искусственный интеллект, который определяет людей по фото в Facebook, оказался в центре скандала. В результате сбоя в социальной сети пользователи на короткое время потеряли возможность видеть изображения. Вместо фотографий они могли наблюдать только белые прямоугольники, сопровождающиеся текстом: он представлял собой не пользовательские подписи, а фразы, сгенерированные ИИ. Так, на аватаре одного из пользователей Facebook было написано: «Это изображение может содержать следующее: мужчина, борода» . Журналистке Даниэль Абриль повезло меньше. Как следует из скриншота, опубликованного ею в Twitter , фотография, на которой присутствует Абриль и ее подруги, подписана так: «Пять человек, включая Даниэль Абриль, люди улыбаются, люди стоят, мотыги, на улице» . Такие подписи вызвали недовольства в социальных сетях. В Facebook эту ситуацию комментировать отказались.
- Сбой в работе ИИ произошел в полиции в Лос-Анджелесе. Программа PredPol собирает данные о совершенных преступлениях, в том числе об их местоположении, а затем составляет карту точек, где подобного рода преступления произойдут в будущем. Исследователи из некоммерческой организации Human Rights Watch проанализировали работу PredPol и выяснили, что алгоритм часто рекомендовал полиции направлять патрульные машины в районы, где живут преимущественно чернокожие жители. При этом те районы, где больше белых людей и где преступления, связанные с незаконным оборотом наркотиков, совершались чаще, оставались без внимания полицейских. Алгоритм ИИ просто запоминал те места, куда чаще всего ездили защитники общественного порядка, а на те районы, в которых полицейские не бывали, система не обращала внимания. В Human Rights Watch сделали вывод, что программа способствует укреплению расовых предрассудков среди американских полицейских.
Кто ограничивал системы искусственного интеллекта
Опасности, связанные с распознаванием лиц (массовое наблюдение и ошибочная идентификация), широко обсуждаются в последние годы. Многие страны уже вводят санкции и различные запреты на использование программ с ИИ.
- В 2020 году США ввели запрет на свободный экспорт ряда технологий искусственного интеллекта, стремясь снизить возможности Китая в этой области. Как сообщает Venture Beat, ограничения затрагивают программы, используемые в сенсорах, дронах и спутниках для автоматизации процесса распознавания образов, в том числе алгоритмы компьютерного зрения для анализа фотографий и видеозаписей с беспилотников. Запрет касается экспорта подобных технологий как для военных, так и для гражданских нужд.
- Крупнейший в мире поставщик продуктов видеонаблюдения Hangzhou Hikvision Digital Technology попал в черный список США. В 2019 году компания попала под запрет на покупку деталей и компонентов у американских компаний без разрешения правительства Соединенных Штатов. Оборудование Hikvision также нельзя было закупать для госкомпаний. Однако пандемия позволила предприятию быстро восстановиться после падения доходов, вызванных санкциями: значительно вырос спрос на системы видеонаблюдения с искусственным интеллектом и ИК-датчиками, которые позволяют следить за температурой сотрудников.
- Главы крупнейших концернов в сфере робототехники и искусственного интеллекта в 2017 году обратились к Организации Объединенных Наций с призывом запретить разработку и использование летального автономного оружия. Открытое письмо на сайте организации Future of Life Institute подписали 116 специалистов из 26 стран мира. В их числе — основатель компании Space X Илон Маск. Авторы обращения указывают на то, что роботизированная техника, которая может вести боевые действия без участия человека, должна быть запрещена так же, как химическое оружие. Письмо было распространено накануне международной конференции по вопросам искусственного интеллекта в Мельбурне.