В связи с резкой активностью министерства обороны США по внедрению искусственного интеллекта в свои военные разработки, критики на Западе опасаются, что это приведет к гонке вооружений, которая уже имела место во второй половине ХХ века. Это резко увеличивает риск применения оружия массового поражения, ядерной войны и жертв среди гражданского населения.
В августе этого года Пентагон объявил о новой инициативе, получившей название Replicator. Целью программы является создание «нескольких тысяч автономных систем» в течении двух лет. Программа распространяется на летающие дроны, самолеты, водные суда и системы обороны, которые будут соединены через компьютеризированный единый центр для синхронизации действий подразделений и управления ими.
Заместитель министра обороны Кэтлин Хикс в Национальной ассоциации оборонно-промышленного комплекса заявила: «Америка по-прежнему выигрывает от больших, изысканных, дорогих и немногочисленных платформ. Но Replicator ускорит прогресс в слишком медленном переходе от военных инноваций США к использованию небольших, умных, дешевых и многочисленных платформ. Самое время вывести универсальную автономию на следующий уровень: производить и предоставлять средства поражения бойцам с объемом и скоростью, необходимыми для сдерживания агрессии, для победы».
По словам Кэтлин Хикс, запуск проекта Replicator был стимулирован нынешним «самым большим преимуществом», имеющимся сегодня у Китая в военном отношении. «Нашу армию будет труднее поражать, ее труднее победить», – сказала заместитель министра обороны США.
Она пояснила, что Replicator будет использовать уже существующие возможности и персонал для разработки тысяч автономных систем в течении следующих 18-24 месяцев.
В 2022 году Пентагон создал целевую группу, получившую название «Task Force Lima», которая «занимается оценкой и применением генеративного ИИ во всем министерстве».
Сторонники контроля над вооружениями бьют тревогу из-за программ Пентагона опасаясь, что текущие, плохо очерченные рамки ограничений использования ИИ, увеличивают экзистенциальные риски. Критики называют самоуправляемое оружие «роботами-убийцами» потому, что оно оснащено ИИ и может технически действовать независимо, чтобы уничтожать цели без помощи человека.
Международных договоров, регулирующих использование этого оружия, не существует и правозащитные организации обеспокоены этическими принципами Вашингтона в отношении использования военных платформ с ИИ. «Это действительно ящик Пандоры, который мы начинаем открывать, и будет очень трудно вернуться назад», – призналась изданию The Hill Анна Хехир, которая руководит исследованиями автономных систем вооружения для правозащитной организации Future of Life Institute.
«Я бы настаивала на том, чтобы Пентагон рассматривал использование ИИ в военных целях наравне с началом ядерной эры. Это новая технология, которую мы не понимаем. Мы можем приблизиться к глобальной катастрофе», – уточнила эксперт.
Директивы Пентагона по использованию искусственного интеллекта в военных действиях были обновленыв январе 2023 года. Документ предусматривает, что должен быть «соответствующий уровень человеческого суждения», прежде чем система с ИИ сможет применить силу. Однако, в отчете исследовательской службы Конгресса США отмечается, что эта фраза является «гибким термином», который применим не ко всем ситуациям, не означает прямого человеческого контроля над ИИ в части решенияприменить силу.
В 2017 году НАТО были установлены некоторые стандарты в отношении использования автономного оружия, включая требование, чтобы оно атаковало только законные военные цели. Однако официальные лица НАТО признают, что неясно, «когда и где эти стандарты требуют присутствия человека в цикле принятия решений».
Майкл Клэр, секретарь совета директоров Ассоциации по контролю над вооружениями сказал, что он «сомневается в том, что всегда будет возможно сохранить человеческий контроль над всеми этими устройствами» с ИИ. Он утверждает, что автономные системы могут выполнять непреднамеренные задачи, такие как атака на ядерные объекты.
В июле этого года аналитический «Центр новой американской безопасности» - CNAS, подготовил доклад о конкуренции между США и Китаем в области ИИ. Авторы доклада указывают, что усиление геополитического соперничества и бурное развитие технологий создают повышенный риск угрозы ядерной войны.
Китай рассматривает ИИ как ключ к ускорению экономического роста и социального благосостояния , как ключевой фактор для будущего страны во всех отношениях. Это обязательство руководитель Китая Си Цзиньпин подтвердил на апрельском заседании Политбюро КПК.
Сотрудники CNAS обеспокоены, что способность китайского правительства мобилизовать и координировать ресурсы для стимулирования развития искусственного интеллекта, с широким привлечением частного сектора, уже побудила многих экспертов предсказывать, что Китай выиграет гонку ИИ.
В марте этого года Си Цзиньпин призвал Народно-освободительную армию Китая пройти этапы военно-технологического развития от механизации к информатизации и, в конечном итоге, к интеллектуализации.
Под механизацией понимают использование современных военных платформ и оборудования. Информатизация - это подключение этих систем к таким информационным сетям и GPS. Интеллектуализация означает внедрение ИИ, квантовых вычислений, больших данных и других новых технологий. Цель - добиться прогресса в этом направлении к 2027 году.
Предполагается «война на разрушение систем». Речь идет не об уничтожении конкретной боевой единицы в виде танка или корабля, а об атаке на слабые места, которые связывают системы и виды вооруженных сил США. ИИ играет ключевую роль в этом концепте.
Американские эксперты выделяют пять сфер, где применение военного ИИ может подорвать стабильность и увеличить стратегические риски между США и Китаем. Во-первых, это увеличение военной мощи Китая даже с небольшим количеством систем с ИИ, которое в своей массе даст Китаю существенное военное преимущество.
Во-вторых, системы ИИ могут увеличить стратегические риски в сфере принятия решений и предоставления оперативной информации. ИИ позволяет сокращать время, необходимое политикам для принятия важных решений, что увеличит скорость возникновения кризисных ситуаций.
Следующий пункт - это беспилотные автономные системы, так как всё усложняющиеся и увеличивающиеся в количестве военные роботы создают большую вероятность непреднамеренной эскалации конфликта.
Четвертая сфера - разведывательные возможности ИИ, которые могут перерасти в угрозу более совершенным «силам возмездия» конкурентов. Принятие контрмер теоретически возможно независимо от того, существует ли угроза на самом деле.
Заключительная, пятая сфера - это когда улучшенные ИИ системы командования и связи, на примере американской - JADC2, будут подавлять аналогичную систему противника. Конечные результаты подобного противоборства невозможно будет оценить заранее.
Среди вариантов управления этими рисками военного применения ИИ, сотрудники CNAS предлагают осуществлять препятствование развитию военного ИИ в Китае через санкции и ограничения на торговлю. Также предложено в одностороннем порядке создать правила разработки и использования военного ИИ.
В 2020 году Министерство обороны США опубликовало «Этические принципы искусственного интеллекта», в январе 2023 года была выпущена директива «Ответственная стратегия искусственного интеллекта и путь ее реализации». В феврале 2023 года Госдепартамент США опубликовал декларацию, призывающую страны всего мира придерживаться аналогичных принципов и повысить прозрачность разработки своего военного ИИ, по аналогии с контролем над ядерными вооружениями.
Еще одним способом сокращения рисков военного ИИ и развития гонки вооружений названа дипломатия.
Правительственные эксперты США и Китая работают в группе по ограничению летальных автономных систем вооружения и официально встречаются с 2014 года в рамках Конвенции ООН по конкретным видам обычного вооружения. В 2021 году китайская сторона продвигала проект документа по регулированию военного применения ИИ, где было указано, что «военное применение ИИ никогда не будет использоваться, как инструмент для начала войны или достижения гегемонии».
Для снижения ядерных рисков в отношениях США и Китая, Вашингтону следует перезапустить процесс обсуждения «вопросов стратегической стабильности» в постоянной пятерке СБ ООН и включить тему военного ИИ в переговоры. В начале 2022 года китайские официальные лица сами инициировали включение вопроса ИИ в диалог по глобальной безопасности - говорится в докладе.
США боятся проиграть «гонку вооружений» военного ИИ и, поэтому озаботились вариантами контроля над этим видом оружия. Сейчас китайские ученые работают над ИИ, который будет позволять перехватывать гиперзвуковые ракеты противника. Население Китая в 1,4 миллиарда человек предоставляет куда больше данных для обучения ИИ, чем 330 миллионов американцев, не совсем лояльно относящихся к внедрению ИИ.
В этой связи Чарльз Дженнингс, бывший генеральный директор одной из компании по разработки ИИ, в известном журнале Politico призывает правительство США национализировать ключевые области разработки ИИ. Американские конгрессмены разрабатывают законодательство, ограничивающего применение ИИ, но до результата ещё далеко.
Конвенция ООН о конкретных видах обычного оружия обсуждает вопрос военного ИИ с 2013 года. Около 30 стран мира призвали к запрещению смертоносных автономных систем, но ООН еще не ратифицировала ни одного договора, регулирующего это оружие.
Генеральный секретарь ООН Антониу Гутерриш призвал к заключению соглашения до 2026 года об ограничении технологий и запрете применения смертоносного автономного оружия без надзора человека.
Скорее всего, только после реального конфликта с применением боевых систем ИИ можно будет предметно обсуждать международные договоренности об ограничении применения военного ИИ.
Из положительных моментов можно отметить то, что сегодняшний конфликт на Украине, представляющий собой противостояние России с коллективным Западом, технологически не успевает стать местом широкого применения боевых систем ИИ.
Подписывайтесь на Телеграм-каналы Института РУССТРАТ и его директора Елены Паниной!