Если вы фанат франшизы фильма «Терминатор», вы уже видели пугающий вымышленный взгляд на кошмарное поле битвы с антиутопией, в котором машины, оснащенные искусственным интеллектом, обладают неограниченной способностью убивать людей.
В то время как полностью автономное оружие - технический термин для роботов-убийц - еще не вполне реальность, быстрое развитие робототехники и искусственного интеллекта в один прекрасный день поднимает призрак армий, имеющих танки и самолеты, способные атаковать без контроля человека.
Согласно отчету Центра новой американской безопасности за 2017 год, более 30 стран имеют или разрабатывают вооруженные беспилотные летательные аппараты. Российское информационное агентство ТАСС также сообщило в 2017 году о разработке в этой стране автоматизированного "боевого модуля" - роботизированного танка, способного использовать искусственный интеллект для определения целей и принятия решений. И в то время как текущая политика США исключает полностью автономное оружие, Пентагон разрабатывает воздушные и наземные роботы, которые будут работать в роях по 250 и более, выполняя наблюдение и другие функции для поддержки человеческих войск. И, согласно сообщению South China Morning Post, Китай работает над созданием подводных лодок, оснащенных искусственным интеллектом, которые помогли бы командирам в принятии тактических решений.
Будущее быстро приближается
Быстрое стремление автоматизировать военные действия вызывает тревогу ученых, и во всем мире наблюдается растущее движение, чтобы остановить разработку автономного оружия до того, как технология получит возможность распространяться. Около 4000 исследователей и ученых в области искусственного интеллекта и робототехники в других областях, в том числе SpaceX и основатель Tesla Элон Маск, соучредитель Apple Стив Возняк и покойный астрофизик Стивен Хокинг, подписали открытое письмо миру, призывая запретить «наступление» автономное оружие, которое находится за пределами значимого человеческого контроля ". Такие организации, как Кампания «Остановить роботов-убийц», все чаще заявляют о необходимости введения ограничений на такие технологии.
«До нас всего несколько лет», - предупреждает в электронном письме Тоби Уолш, профессор искусственного интеллекта в австралийском университете Нового Южного Уэльса. «Прототипы существуют во всех сферах сражений - в воздухе, на земле, на море и под морем».
Уолш принял участие в этой работе несколько лет назад, когда ему стало очевидно, что «начинается гонка вооружений для разработки такого оружия, и у нас была возможность предотвратить антиутопическое будущее, которое так часто изображали в Голливуде».
Уолш и другие исследователи ИИ недавно использовали свою известность в этой области для оказания давления. После того, как южнокорейский исследовательский университет KAIST (Корейский передовой институт науки и техники) открыл новый центр, посвященный сближению ИИ и национальной обороны, они направили открытое письмо президенту KAIST Сунг-Чулу Шину, угрожая бойкотом, если он предоставил заверения в том, что центр не будет разрабатывать полностью автономное оружие, которое лишено значимого человеческого контроля. (По сообщению Times Higher Education, Санг впоследствии выступил с заявлением о том, что университет не будет разрабатывать такое оружие).
Инициатива ООН
Движение против роботов-убийц также пристально следит за событиями в Женеве, где представители разных стран собрались в апреле 2018 года на конференцию Организации Объединенных Наций по вопросу о том, что делать с автономным оружием.
Ричард Мойес, управляющий директор Article 36, британской организации по контролю над вооружениями, говорит в электронном письме, что автономное оружие может разрушить правовую основу, регулирующую военные действия, которая зависит от людей, принимающих решения о том, является ли применение силы законным в данная ситуация. «Если машинам будет предоставлена широкая лицензия для совершения нападений, то эти правовые оценки человека больше не будут основываться на реальном понимании обстоятельств на местах», - пишет Мойес, лауреат Нобелевской премии мира 2017 года за свою работу по сокращению ядерных вооружений. , «Это открывает путь для реальной дегуманизации конфликта».
Скорее всего, США поддержали бы запрет роботов-убийц. В 2012 году администрация Обамы издала директиву, которую Белый дом Трампа, по-видимому, решил продолжить, требуя, чтобы технология автономного оружия была разработана таким образом, чтобы «позволить командирам и операторам применять соответствующие уровни человеческого суждения о применении силы». Директива также требует принятия мер защиты от автономного оружия, которое дает сбой и запускает атаки самостоятельно. В марте директор Агентства перспективных исследовательских проектов в области обороны (DARPA) Стивен Уолкер заявил, что сомневается, что США когда-либо позволят машинам принимать решения об использовании смертоносной силы, сообщает The Hill.
В электронном письме представитель DARPA Джаред Адамс говорит, что вместо этого исследования агентства сосредоточены на «изучении путей обеспечения того, чтобы технологии улучшали способность операторов-операторов принимать быстрые решения в критические моменты, а не разрушать эту способность». Есть опасения, что зависимость операторов от автоматизации может снизить их ситуационную осведомленность, когда им нужно будет ее вызвать - проблема, по словам Адамса, иллюстрируется крушением рейса Air France в 2009 году. «По этой причине исследование DARPA, связанное с автономией, направлено на поиск автономии. чтобы найти оптимальный баланс между различными режимами работы с акцентом на обеспечение максимальной поддержки принятия решений для боевиков ", говорит он.
Нет международного консенсуса
Но вне закона роботы-убийцы могут оказаться трудными. Бонни Дочерти, старший научный сотрудник Human Rights Watch и заместитель директора по вооруженным конфликтам и защите гражданских лиц в Международной клинике по правам человека Гарвардской школы права, сообщает в электронном письме, что, хотя большинство стран на конференции ООН обеспокоены автономным оружием, все же консенсусная поддержка юридически обязывающего международного запрета.
Будет ли работать запрет на роботов-убийц? Например, давний международный договор о запрещении химического оружия, по-видимому, не прекратил применение такого оружия в сирийской гражданской войне.
Тем не менее, Дочерти утверждал, что запреты на химическое оружие, противопехотные мины и кассетные боеприпасы все еще спасли жизни. «Такие законы связывают страны, которые присоединяются к ним, и стигматизация проблемного оружия может повлиять даже на страны, которые не являются его участниками. Любой закон - даже против широко признанного преступления, такого как убийство, - может быть нарушен мошенником, но это не означает, что такое законы не должны быть приняты. Закон по-прежнему оказывает существенное влияние на поведение, и должен быть принят новый международный договор, предусматривающий упреждение полностью автономного оружия », - пишет она.