Оказывается, что в Канаде нет законов, которые регулируют проблемы ИИ-технологий (прим. АИИ — а где они есть?).
ИИ-технологии уже играют огромную роль в таких сервисах, как Netflix и Alexa. Но никто не говорит о той роли, что ИИ-технологии играют в правоохранительных органах, военных программах и других областях.
Несмотря на то что Канада — это центр инноваций в области машинного обучения (прим. АИИ — первый раз про это слышим; вероятно, это мнение Канады), она всё ещё не создала нормативный режим, который предназначен для решения вопросов дискриминации и подотчётности. Это вызывает призывы к регулированию, в том числе и от высших представителей отрасли.
Мы нуждаемся в органах, которые будут регулировать Искусственный Интеллект в Канаде, — сообщил Махди Амри, руководитель ИИ-отдела в Deloitte Canada.
Исходя из доклада, написанного им, отсутствие правовой базы для ИИ может подорвать доверие к технологии и подотчётности её поставщиков.
Существует такая идея, которая гласит, что машины будут принимать все решения. И человечеством будет управлять необъяснимый чёрный ящик, — сообщает Амри.
Роботы-господа — всё ещё остаются плодом научной фантастики, но ИИ-технологии всё чаще используются в принятии решений, которые имеют некоторые последствия для людей.
С 2015 года отделения полиции в Ванкувере, Эдмонтоне, Саскатуне и в Лондоне внедряли или тестировали прогностические системы, которые автоматизируют принятие решений на основе данных. Цель систем — предсказание того, кто совершит преступление и когда.
Федеральная иммиграционная система опирается на алгоритмически управляемые решения, которые помогают определять риски. Но такая система может нарушать человеческие права.
Тестирование и развёртывание Искусственного Интеллекта в вооружённых силах Канады стало причиной того, что Джеффри Хинтон и Йошуа Бенгио начали предупреждать об опасности роботизированного оружия. Также они отметили то, что решения о смерти или пощаде передаются на аутсорсинг машинам. Пионеры ИИ-технологий в Канаде призывают к подписанию международного соглашения об использовании таких технологий.
Если вы решите использовать системы чёрного ящика, то вам вряд ли будут известны стандарты, встроенные в систему, и типы данных, которые использует система. Более того, такие системы могут подвергаться риску предвзятости, — сообщила Рашида Ричардсон, директор по исследованиям политики института AI Now в Нью-Йоркском университете.
Она напомнила об ужасных инцидентах расизма в полицейской стратегии Чикаго, где большинство людей в списке потенциальных преступников были чернокожие мужчины без каких-либо проблем с законом.
Ричардсон сообщает, что пора перейти от высоких принципов к правовой реформе. В недавнем докладе института AI Now сказано, что правительственные структуры должны контролировать и проверять использование ИИ-технологий в таких областях, как правосудие, здравоохранение и образование. Главная причина того, что ИИ-технологии должны контролироваться государством — отсутствие подотчётности ИИ-систем.
Регулирование и надзор за ИИ-технологиями должны быть разделены между учреждениями или группами экспертов. Регулирование ИИ-технологией не должно быть закреплено за единым регулирующим органом.
Индустрия здравоохранения полностью поменяется из-за ИИ-технологий, поскольку системы машинного обучения теперь могут анализировать обширные наборы анонимных данных и изображений пациентов для того, чтобы выявлять проблемы со здоровьем. Например, ИИ-системы могут обнаруживать остеопороз и признаки слепоты.
Каролина Бессега, соучредитель и главный научный сотрудник Монреальского Stradigi AI, сообщает о том, что нормативная пустота — это препятствие для использования Искусственного Интеллекта. Из-за отсутствия правового поля сдерживаются инновации и эффективность, особенно в индустрии здравоохранения, где последствие неправильного решение — смерть.
Прямо сейчас ИИ-технологии напоминают серую зону, в которой все боятся принимать решения. Давайте использовать ИИ-технологии для улучшения диагностики или рекомендаций пациентам, — подчёркивает она.
Она считает, что ответственность за все решения должна ложиться на плечи профессионала, а не машины.
Критики считают, что Канада отстаёт от США и Евросоюза в изучении и регулировании ИИ-технологий. Ни одна из этих стран не внедрила всеобъемлющую правовую базу в этих сферах, но Конгресс и Комиссия ЕС подготовили обширные доклады, затрагивающие этот вопрос.
Критически важно то, что в Канаде нет правовой основы для использования технологий, или основополагающих норм, связанных с правовыми процедурами, — сообщается в мартовском брифинге Citizen Lab.
Различные международные стандарты, торговая тайна и постоянная изменяемость алгоритмов создают препятствия для плавного регулирования. Об этом сообщает Мириам Бюйтен, младший профессор права и экономики в Университете Мангейма.
Канада — это одно из первых государств, которое создало официальный план ИИ-исследований, представив стратегию стоимостью в 125 млн $ в 2017 году. Но задачи стратегии в основном научные или коммерческие.
В декабре премьер-министр Канады Джастин Трюдо и президент Франции Эмманюэль Макрон рассказали о том, что планируют создать совместную целевую группу, которая будет руководить разработкой политики в отношении ИИ-технологий с учётом человеческих прав.
Министр инноваций, науки и экономического развития Навдип Бейнс, рассказал канадской прессе о том, что отчёт будет подготовлен в ближайшее время. Кроме того, его спросили о готовности правительства к законодательно прозрачному и подотчётному Искусственному Интеллекту. Однако он ответил, что следует сделать шаг назад, чтобы определить руководящие принципы.
Он отметил, что они планируют продвигать принципы в отношении программирования и законодательства. Этим займётся не только министерство инноваций, но и другие правительственные организации.
Казначейский совет Канады уже разработал набор принципов ответственного использования ИИ-технологий на 199 слов. Принципы подчёркивают прозрачность и надлежащую подготовку к принятию ИИ-технологий. Департамент инноваций, науки и экономического развития особенно выделяет закон «О защите личной информации и электронных документов», который широко применяется в коммерческой деятельности и позволяет уполномоченному по конфиденциальности рассматривать жалобы.
Представитель департамента сообщил, что ИИ-технологии могут стать причиной появления новых элементов в законодательстве. Однако он отметил, что информационные технологии уже давно подчиняются существующим законам и правилам, которые затрагивают конкуренцию, интеллектуальную собственность, конфиденциальность и безопасность.
Начиная с 1 апреля следующего года, государственные ведомства, которые хотят внедрить автоматизированные системы принятия решений, должны провести оценку воздействия алгоритмов и опубликовать результаты в сети.
Источник: Global News Canada