Найти тему

Кто должен писать правила для ИИ? Исследование указывает на дисбаланс сил

Оглавление
https://image.freepik.com/free-photo/science-fiction-robot-character_134201-26.jpg
https://image.freepik.com/free-photo/science-fiction-robot-character_134201-26.jpg

В настоящее время усиливаются международные усилия по разработке этических принципов для искусственного интеллекта, но сами усилия пока направлены в сторону более богатых стран.

В недавно опубликованном исследовании исследователи насчитали 84 группы по всему миру, предлагающие этические принципы для ИИ в последние несколько лет - от правительств, транснациональных корпораций, международных организаций и других.

Но большинство из них из Европы, США и Японии, и мало кто еще слышал их от развивающихся стран.

Как бы вы назвали это глобальным, если не все вовлечены? Дискуссия может быть сформирована теми, кто издает принципы, что приведет к искаженному принципу. Мы не можем просто попросить всех принять его, когда все решено.
Анна Джобин

Исследования наглядно демонстрируют, как всего за последние несколько лет международная политическая индустрия взялась за разработку этических руководящих принципов использования ИИ.

Это вызвано опасениями роботов-боевиков на базе AI, мошенничества в Интернете, вторжения в частную жизнь и других нежелательных побочных эффектов.

Необязательные принципы. Пока...

Руководящие принципы, опубликованные до сих пор по всему миру, в основном расплывчаты - и очень далеки от любых обязательных международных соглашений.

Но шаг вперед произошел в июне прошлого года на заседании группы 20 крупнейших промышленно развитых стран, где лидеры согласовали ряд общих необязательных принципов, основанных главным образом на работе организации экономического сотрудничества и развития.

В качестве следующего шага, несколько правительств теперь настаивают на создании экспертной группы для мониторинга развития ИИ - во многом как международная группа ООН по изменению климата.

Наибольшее число (20), пришло из американских организаций, таких как Ассоциация вычислительной техники или транснациональные корпорации, такие как Microsoft и Google.

На втором месте - европейские организации с 19 наборами рекомендаций от Европейской комиссии и парламента, Палаты лордов Великобритании и Королевского общества, а также таких компаний, как Telefonica, Deutsche Telekom и SAP.

Многие из других опубликованных руководящих принципов принадлежат международным организациям, таким как Всемирный экономический форум или Международная амнистия.

Но в целом, по словам исследователей, в интервью они считают, что процесс формулирования руководящих принципов ИИ должен быть более «восходящим».

В качестве потенциальной модели для подражания, был указал расширенный процесс консультаций, начатый в прошлом году Университетом Монреаля и Квебекские исследовательские фонды, у которых был прозрачный процесс разработки и обсуждения этики ИИ.

https://image.freepik.com/free-photo/robotic-hands_140365-7.jpg
https://image.freepik.com/free-photo/robotic-hands_140365-7.jpg

Пять основных идей

Исследуя все опубликованные документы, исследователи нашли широкое согласие в отношении пяти общих идей о том, как ИИ должен работать при его развертывании по всему миру.

Но есть немного согласия относительно деталей, как именно эти идеи будут реализованы. Пять ключевых областей:

  • Прозрачность: большинство групп согласны с тем, что люди должны знать, как работают системы ИИ, которые они используют, и таким образом избегать потенциальных проблем. Но неважно, публикует ли он исходный код, базы данных или другие средства.
  • Справедливость, беспристрастность и справедливость. Цель состоит в том, чтобы предотвратить несправедливую предвзятость в системах, которая может стоить людям их работы или прав, но возможные решения варьируются от усиления прав до подачи апелляции или иска, до предоставления офисам защиты данных дополнительных возможностей.
  • Небрежное отношение: большинство групп больше беспокоятся о том, что искусственный интеллект может причинить вред, а не принести пользу. Предложения включают в себя внедрение мер безопасности при разработке программного обеспечения и создание новых органов для мониторинга систем.
  • Ответственность и ответственность: большинство согласны с тем, что, когда ИИ идет не так, кто-то должен быть привлечен к ответственности - но нет соглашения о том, кто или как.
  • Конфиденциальность. Учитывая и без того высокую чувствительность к конфиденциальности данных во всем мире, неудивительно, что многие из руководящих принципов требуют улучшения контроля при развертывании систем искусственного интеллекта.

Исследователи нашли и другие идеи в руководствах, но отметили, что очень немногие упоминают устойчивость.

Это важный пробел, потому что системы искусственного интеллекта могут оказывать как положительное, так и отрицательное воздействие на планету, потенциально улучшая управление окружающей средой, но также увеличивая глобальное потребление энергии.

К чему все это приведет, пока неизвестно.

В то время как G20 согласовала некоторые общие принципы, они резко расходятся во мнениях относительно деталей того, что следует делать на практике.

Исходя из прошлого международного опыта, это означает, что эта работа вряд ли приведет к всеобъемлющему международному договору об искусственном интеллекте в целом, но может привести к соглашениям по отдельным вопросам.

И отмечено, что большая часть составления руководств была разработана комитетами, работающими на общих принципах, а не на основе достоверных данных о конкретных системах ИИ.

Это исследование является попыткой обобщить проделанную до сих пор работу по этике ИИ, это не заключение.

Было замечено, что многие люди стремятся делать выводы о том, какими должны быть принципы ИИ...

Только у нас должен подход быть более основанный на фактах.