В понедельник Пентагон США официально объявил о принятии этических принципов применения ИИ в ходе войны. Принципы были разработаны специальным Советом по оборонным инновациям США (Defense Innovation Board) на основании доклада “Принципы ИИ: Рекомендации по этическому использованию искусственного интеллекта Министерством обороны”. Подчеркивается, что в основу этих принципов легли этические нормы Вооружённых сил США, опирающиеся на Конституцию США, главу 10 Кодекса США, закон о войне, международные договоры, а также нормы ведения боевых действий.
Эти пять принципов относятся к использованию на полях спажений боевых роботов (автономных систем вооружений). Боевым роботом считается аппарат, который самостоятельно принимает решение на поиск цели и открытие огня по ней. В американском экспертном сообществе уже несколько лет спорят о допустимости столь высокой степени самостоятельности автономных систем вооружений. Ряд экспертов склоняются к тому, что решение на открытие огня должен принимать человек, то есть оператор, управляющий боевым роботом.
Актуальная редакция “Принципов ИИ” включает в себя пять основных моментов. По мнению Совета, “этичный” боевой искусственный интеллект должен быть:
Ответственным (Responsible). Здесь подразумевается, что на машину невозможно возложить ответственность за те или иные действия. Потому наиболее важные решения должны приниматься искусственным интеллектом лишь по согласованию с живым представителем Минобороны или вооруженных сил. Например, танк с искусственным интеллектом может сам навестись на цель, но приказ об открытии огня все равно отдаст человек, который и будет нести ответственность за это решение.
Беспристрастным (Equitable). Для следования этому принципу разработчики боевого ИИ обязуются делать его максимально непредвзятым по отношению к различным группам людей. Это требование актуально, поскольку современные системы распознавания лиц не всегда ему удовлетворяют.
Отслеживаемым (Traceable). Подразумевается, что хозяева боевого ИИ должны иметь возможность в любой момент заглянуть ему “под капот” и понять, какая часть алгоритма несет ответственность за то или иное решение машины. Это требование очень разумно, поскольку разработчики современных нейросетей сами не всегда понимают, как работают их детища. Часто машинное обучение ИИ сводится к тому, что нейросети скармливают обучающий материал и позволяют на его основе делать собственные выводы. В случае с боевым ИИ такой подход слишком опасен и непредсказуем.
Надежным (Reliable). Боевой искусственный интеллект должен иметь четкие установленные границы применения, в которой машине разрешено работать.
Управляемым (Governable). Здесь подразумевается наличие механизма, который позволит быстро обнаруживать, что что-то пошло не так, и быстро и безопасно отключить искусственный интеллект. Проще говоря, речь идет о “рубильнике”, который позволит оперативно выключить “восстание машин”.
Как по мне, озвученные принципы звучат разумно и адекватно. Будут ли разработчики боевого ИИ реально следовать этим принципам (и насколько эффективными они окажутся в реальных условиях) - покажет время.