Тема этики ИИ проходит через национальные и международные стратегии развития, рекомендации экспертных групп, отраслевые кодексы и заявления отдельных компаний. К ответственному подходу к этой технологии призывают уже не только законодатели или защитники гражданских свобод, но все чаще и сами инженеры, занимающиеся наукой о данных. Почему такое давление?
Ответ кроется в особенностях ИИ, который, с одной стороны, является технологией общего назначения, а с другой, вопреки своему названию, характеризуется весьма ограниченным интеллектом. Как отмечает профессор Лучано Флориди из Оксфордского института интернета, современный ИИ не столько вырабатывает разумное поведение, сколько воспроизводит его, основываясь на статистике и огромном количестве доступных сегодня данных. Таким образом, его когнитивный потенциал далек от возможностей не только человеческого, но и животного мозга.
Несомненно, призрак грядущих перемен должен повлечь за собой предложения по изменению в законодательстве, поскольку замена человека на работе и присутствие автономных роботов в обществе влекут за собой множество проблем, как юридических, этических, так и социальных. Однако несмотря на заметные проблемы, связанные с развитием искусственного интеллекта, очень сложно найти конкретные выходы из сложившейся ситуации.
Этика в ИИ
Этика, наряду с регулированием и надлежащим управлением, необходима для правильного руководства развитием ИИ. Регулирование определяет, какие действия являются законными или незаконными, этика и политика определяют, какие действия являются желательными, чтобы мы могли жить в лучшем обществе.
В результате сегодня многочисленные экспертные группы разрабатывают рекомендации по ответственному развитию искусственного интеллекта. В их числе документ, подготовленный по поручению Европейской комиссии, в котором говорится о так называемом надежном ИИ. Этика, совместно с законом и безопасностью (в техническом и социальном плане), является ключевым компонентом, обеспечивающим надежность ИИ.
В основе заслуживающего доверия ИИ лежат четыре общих принципа:
- уважение автономии человека;
- предотвращение вреда;
- справедливость;
- объяснимость.
Эти основы, вытекающие из фундаментальных прав (уважение человеческого достоинства, свобода личности, уважение демократии, справедливости и верховенства закона, равенство, недискриминация, солидарность и гражданские права), послужили отправной точкой для разработки семи ключевых требований, которые должны постоянно оцениваться на протяжении всего жизненного цикла ИИ. Эти требования должны обеспечивать:
- человеческое руководство и надзор;
- техническую надежность и безопасность;
- защиту частной жизни и надлежащее управление данными;
- прозрачность;
- разнообразие, недискриминацию и справедливость;
- социальное и экологическое благополучие;
- подотчетность.
Эксперты, разработавшие требования ЕС, также подготовили отдельный инструмент аудита для оценки соответствия систем искусственного интеллекта данным рекомендациям.
Правой аспект
Регулирование феномена ИИ должно начинаться с установления его материальной сферы и предмета, тем самым точно определяя, какое технологическое явление следует считать искусственным интеллектом в его понимании. Такое законодательное определение должно отличаться максимальной четкостью, чтобы не вызывать дополнительных правовых сомнений. При этом должно быть технологически универсальным настолько, чтобы не ограничивать развитие технологий. В то же время должно быть способным реализовать цели законодателя, несмотря на такое развитие. Стоит особо подчеркнуть, что именно четкость определения может иметь решающее значение для рынка, который должен быть уверен, подпадает ли он под действие того или иного нормативного акта или нет.
Заключение
Признают ли российские предприниматели бизнес-потенциал этичного и правового ИИ? Это во многом зависит от того, начнут ли иностранные поставщики ИИ рассматривать этичность как ценный дифференцирующий фактор в рыночной игре. Однако ничто не мешает нашим компаниям первыми опробовать новаторские решения в области ответственного ИИ, проложив путь для других. Одной из главных целей политики в области ИИ должно быть сделать все возможное, чтобы это произошло. Как это сделать и кто может в этом помочь, вы можете узнать на нашем сайте.