Найти тему
Розовый мозг

Проблемы ИИ и возможные пути их решения

Положения о защите данных, а также Конвенция 108, обеспечивают гарантии, которые в равной степени могут применяться к алгоритмам (включая алгоритмы искусственного интеллекта), используемым в автоматизированных системах принятия решений.

https://www.pinterest.ru/pin/833447474774349958/
https://www.pinterest.ru/pin/833447474774349958/

Однако красная линия между человеческими и автоматизированными решениями не может быть проведена на основе простого существования нечеловеческого процесса принятия решений. Действительно, якобы надежный характер математических решений ИИ может побудить тех, кто принимает решения на основе алгоритмов, доверять картине личности и общества, которую предлагает аналитика. Более того, такое отношение может быть усилено угрозой потенциальных санкций за принятие решения, игнорирующего результаты аналитики.

Таким образом, само по себе присутствие человека, принимающего решения, недостаточно.

Алгоритмы искусственного интеллекта выигрывают от привлекательности математической объективности, которая в сочетании со сложностью управления данными и подчиненным положением лиц, принимающих решения в организации, может затруднить принятие решений, отличных от решений, предлагаемых алгоритмом.

На этом фоне необходимо проводить различие между случаями, когда лицо, принимающее решения, обладает реальной свободой, и теми, когда она не имеет такой свободы. В Руководстве по большим массивам данных уже подчеркивалась важность защиты реальной свободы человека, принимающего решения.

В оценке случаев потенциального дисбаланса важную роль могут играть экспертные комитеты, что также может способствовать участию заинтересованных сторон в оценке. В тех случаях, когда решения могут быть делегированы системам, основанным на искусственном интеллекте, или когда лица, ответственные за принятие решений по искусственному интеллекту, не могут осуществлять эффективный надзор за этими решениями, возникает более широкий вопрос о том, следует ли использовать эти системы, а не методы, основанные на человеке.

Это должно привести общины или группы, которые потенциально могут пострадать, к коллективному обсуждению вопросов принятия решений по искусственному интеллекту, анализу потенциальных рисков и, в случае их принятия, мониторингу их применения.

https://www.pinterest.ru/pin/420101471481670353/
https://www.pinterest.ru/pin/420101471481670353/

Прозрачность

В контексте ИИ прозрачность может иметь несколько различных значений. Оно может заключаться в раскрытии информации об используемых приложениях ИИ, описании их логики или доступа к структуре алгоритмов ИИ и, где это применимо, к наборам данных, используемым для обучения алгоритмам.

Кроме того, прозрачность может быть требованием для принятия решений, ориентированных на данные. Хотя прозрачность важна для общественного контроля автоматизированных моделей принятия решений, общее заявление об использовании ИИ мало что делает для снижения риска несправедливого или незаконного использования данных. С другой стороны, доступ к структуре алгоритмов может позволить выявить потенциальную погрешность.

Однако права ИИ и вопросы конкуренции иногда ограничивают такой доступ, и в любом случае, даже если таких барьеров не существует, сложность принятых моделей может представлять собой серьезную проблему для познания человека. Кроме того, в некоторых случаях прозрачность может помешать государственным органам выполнять свои обязанности (например, системы прогностической полиции) или противоречить обязательствам контролера данных по обеспечению безопасности персональных данных субъектов данных, отличных от запрашивающих доступ.

По этим причинам лучшим вариантом может быть решение, ориентированное на раскрытие логики алгоритмов. Тем не менее, раскрытие информации может толковаться более или менее узко.

Предоставление информации о типе входных данных и ожидаемых результатах, объяснение переменных и их веса, или освещение архитектуры аналитики являются различными формами прозрачности в отношении логики алгоритмов искусственного интеллекта.

Процессы комплексного анализа (например, глубокий анализ) бросают вызов этому понятию прозрачности - с точки зрения объяснения логики алгоритмов и решений, принятых с помощью аналитики, и недетерминированных систем затрудняют предоставление детальной информации о логике обработки данных. Кроме того, динамическая природа многих алгоритмов контрастирует со статической природой прозрачности.

Алгоритмы постоянно обновляются и изменяются, в то время как раскрытие информации о прозрачности касается только того алгоритма, который используется в данный момент.

Наконец, доступ к алгоритмам искусственного интеллекта легких недостаточен для выявления потенциальной предвзятости. Ресурсы с точки зрения времени и навыков также необходимы для проведения такого рода анализа.

В результате сдерживающий эффект таких решений, как аудит или вмешательство со стороны лиц, принимающих решения, снижается.

https://www.pinterest.ru/pin/313563192804165869/
https://www.pinterest.ru/pin/313563192804165869/

В настоящее время в рамках исследований предпринимаются попытки самостоятельно разработать методы обнаружения отклонений на основе алгоритмов, однако трудно представить, как внедрение алгоритмического супервайзера для алгоритмов может уменьшить сложность управления данными.

Ни один из этих пунктов не ослабляет аргумент в пользу повышения прозрачности в целом, особенно в государственном секторе, и его роль в обеспечении самоопределения субъекта данных. Если прозрачность в отношении архитектуры и логики алгоритмов труднодостижима, то она может оказаться полезной для выяснения причин, лежащих в основе решения об использовании такого сложного инструмента.