Что касается ресурсоемких приложений, требующих большого объема данных, то комитет по этике привлекает к себе все большее внимание в кругах ИИ, хотя единодушного согласия в отношении его характера и функций достигнуто не было.
Теоретические исследования, политические документы и корпоративные инициативы - все они предлагают различные решения в этом отношении.
Первое различие в подходах которое возникает, касается уровня, на котором должны работать эти комитеты. Некоторые предложения описывают их как национальные комитеты, которые должны предоставить общие руководящие принципы по вопросам развития искусственного интеллекта.
Это не совсем новая идея напоминает существующие национальные комитеты по биоэтике.
Однако в случае интенсивных приложений, использующих персональную информацию, требующих большого объема данных об искусственном интеллекте, необходимо тщательно изучить взаимодействие между этими национальными комитетами и национальными органами по защите данных, как и взаимодействие с другими национальными органами, такими как антимонопольные органы или органы национальной безопасности.
Поэтому с точки зрения регулирования важно сотрудничать с этими органами и пересмотреть их роль или укрепить их взаимное сотрудничество.
Другой подход мог бы заключаться в создании комитетов по этике на уровне компаний, оказывающих поддержку контролерам данных для конкретных приложений данных, с уделением особого внимания работе контролеров данных.
Они могут играть более широкую роль и выступать в качестве экспертных комитетов не только по этическим вопросам, но и по широкому кругу социальных проблем, связанных с искусственным интеллектом, включая контекстуальное применение основных прав.
Несколько компаний уже создали внутренние или внешние комитеты для консультирования по важнейшим проектам. Это второе решение, основанное на создании комитетов по корпоративной этике, создает меньше трудностей с точки зрения дублирования с существующими регулирующими или надзорными органами, но может потребовать более четкого определения взаимоотношений между этими комитетами и надзорными органами.
Национальные законодатели могут уполномочить надзорные органы тщательно анализировать эти комитеты, когда недостатки в их возможностях или решения влияют на обработку данных.
Как и в случае с другими видами консультативных советов, создание комитетов по этике ИИ вызывает вопросы относительно их независимости, внутреннего или внешнего статуса и передовой практики во избежание конфликта интересов.
Состав этих комитетов будет также зависеть от сложности инструментов и приложений искусственного интеллекта. Там, где социальные вопросы имеют значение, будут иметь юридические, этические и социологические знания, а также знания в конкретных областях.
Такие комитеты могут играть еще более важную роль в тех областях, в которых трудно обеспечить прозрачность и участие заинтересованных сторон, таких как прогностическое правосудие, выявление преступности или прогностическая правоохранительная деятельность.
Комитеты по этике могут оказать разработчикам искусственного интеллекта ценную поддержку в разработке основанных на правах человека и социально ориентированных алгоритмов. Более того, диалог между разработчиками и комитетом может способствовать созданию более прозрачных процедур обработки данных и более четкому определению их обоснования.
Совместная оценка
Эксперты (например, комитеты по этике) могут играть важную роль в выявлении потенциально неблагоприятных последствий применения искусственного интеллекта и помогать контролерам данных в решении любых критических вопросов. Однако в некоторых случаях анализ невозможен без привлечения целевых сообществ или групп. Как и в случае с Оценкой социального воздействия, социальные последствия ИИ могут вызвать интерес к участию общественности, расширению прав и возможностей отдельных лиц и групп посредством процесса оценки, недискриминации и равноправного участия в ней.
Совместный подход также может быть полезен для лучшего понимания различных конкурирующих интересов и этических и социальных ценностей.
Вовлечение заинтересованных сторон также является одной из целей оценки, поскольку оно снижает риск недопредставления определенных групп и может также выявить критические вопросы, которые были недооценены или игнорировались контролером данных. Однако вовлечение заинтересованных сторон не должно рассматриваться как способ уклонения лиц, принимающих решения (в данном случае контролеров данных), от выполнения своих обязанностей в качестве лидеров всего процесса. Лица, ответственные за принятие решений, должны сохранять приверженность достижению наилучших результатов с точки зрения минимизации негативного воздействия обработки данных на отдельных лиц и общество в целом.
Наконец, совместная оценка далеко идущих последствий алгоритмических решений может также побудить контролеров данных к принятию совместных решений по разработке приложений ИИ с активным привлечением групп, на которые они могут оказать влияние.