Найти тему
Random News

Растущее движение ученых подталкивает к запрету роботов-убийц

Оглавление
Эндоскелетный череп из фильма «Терминатор Дженисис». Распространение технологий искусственного интеллекта (ИИ) вызывает волну беспокойства со стороны мирового научного сообщества.
Эндоскелетный череп из фильма «Терминатор Дженисис». Распространение технологий искусственного интеллекта (ИИ) вызывает волну беспокойства со стороны мирового научного сообщества.

Если вы фанат франшизы фильма «Терминатор», вы уже видели пугающий вымышленный взгляд на кошмарное поле битвы с антиутопией, в котором машины, оснащенные искусственным интеллектом, обладают неограниченной способностью убивать людей.

В то время как полностью автономное оружие - технический термин для роботов-убийц - еще не вполне реальность, быстрое развитие робототехники и искусственного интеллекта в один прекрасный день поднимает призрак армий, имеющих танки и самолеты, способные атаковать без контроля человека.

Согласно отчету Центра новой американской безопасности за 2017 год, более 30 стран имеют или разрабатывают вооруженные беспилотные летательные аппараты. Российское информационное агентство ТАСС также сообщило в 2017 году о разработке в этой стране автоматизированного "боевого модуля" - роботизированного танка, способного использовать искусственный интеллект для определения целей и принятия решений. И в то время как текущая политика США исключает полностью автономное оружие, Пентагон разрабатывает воздушные и наземные роботы, которые будут работать в роях по 250 и более, выполняя наблюдение и другие функции для поддержки человеческих войск. И, согласно сообщению South China Morning Post, Китай работает над созданием подводных лодок, оснащенных искусственным интеллектом, которые помогли бы командирам в принятии тактических решений.

Будущее быстро приближается

Быстрое стремление автоматизировать военные действия вызывает тревогу ученых, и во всем мире наблюдается растущее движение, чтобы остановить разработку автономного оружия до того, как технология получит возможность распространяться. Около 4000 исследователей и ученых в области искусственного интеллекта и робототехники в других областях, в том числе SpaceX и основатель Tesla Элон Маск, соучредитель Apple Стив Возняк и покойный астрофизик Стивен Хокинг, подписали открытое письмо миру, призывая запретить «наступление» автономное оружие, которое находится за пределами значимого человеческого контроля ". Такие организации, как Кампания «Остановить роботов-убийц», все чаще заявляют о необходимости введения ограничений на такие технологии.

«До нас всего несколько лет», - предупреждает в электронном письме Тоби Уолш, профессор искусственного интеллекта в австралийском университете Нового Южного Уэльса. «Прототипы существуют во всех сферах сражений - в воздухе, на земле, на море и под морем».

Уолш принял участие в этой работе несколько лет назад, когда ему стало очевидно, что «начинается гонка вооружений для разработки такого оружия, и у нас была возможность предотвратить антиутопическое будущее, которое так часто изображали в Голливуде».

Уолш и другие исследователи ИИ недавно использовали свою известность в этой области для оказания давления. После того, как южнокорейский исследовательский университет KAIST (Корейский передовой институт науки и техники) открыл новый центр, посвященный сближению ИИ и национальной обороны, они направили открытое письмо президенту KAIST Сунг-Чулу Шину, угрожая бойкотом, если он предоставил заверения в том, что центр не будет разрабатывать полностью автономное оружие, которое лишено значимого человеческого контроля. (По сообщению Times Higher Education, Санг впоследствии выступил с заявлением о том, что университет не будет разрабатывать такое оружие).

Инициатива ООН

Движение против роботов-убийц также пристально следит за событиями в Женеве, где представители разных стран собрались в апреле 2018 года на конференцию Организации Объединенных Наций по вопросу о том, что делать с автономным оружием.

Ричард Мойес, управляющий директор Article 36, британской организации по контролю над вооружениями, говорит в электронном письме, что автономное оружие может разрушить правовую основу, регулирующую военные действия, которая зависит от людей, принимающих решения о том, является ли применение силы законным в данная ситуация. «Если машинам будет предоставлена ​​широкая лицензия для совершения нападений, то эти правовые оценки человека больше не будут основываться на реальном понимании обстоятельств на местах», - пишет Мойес, лауреат Нобелевской премии мира 2017 года за свою работу по сокращению ядерных вооружений. , «Это открывает путь для реальной дегуманизации конфликта».

Скорее всего, США поддержали бы запрет роботов-убийц. В 2012 году администрация Обамы издала директиву, которую Белый дом Трампа, по-видимому, решил продолжить, требуя, чтобы технология автономного оружия была разработана таким образом, чтобы «позволить командирам и операторам применять соответствующие уровни человеческого суждения о применении силы». Директива также требует принятия мер защиты от автономного оружия, которое дает сбой и запускает атаки самостоятельно. В марте директор Агентства перспективных исследовательских проектов в области обороны (DARPA) Стивен Уолкер заявил, что сомневается, что США когда-либо позволят машинам принимать решения об использовании смертоносной силы, сообщает The Hill.

В электронном письме представитель DARPA Джаред Адамс говорит, что вместо этого исследования агентства сосредоточены на «изучении путей обеспечения того, чтобы технологии улучшали способность операторов-операторов принимать быстрые решения в критические моменты, а не разрушать эту способность». Есть опасения, что зависимость операторов от автоматизации может снизить их ситуационную осведомленность, когда им нужно будет ее вызвать - проблема, по словам Адамса, иллюстрируется крушением рейса Air France в 2009 году. «По этой причине исследование DARPA, связанное с автономией, направлено на поиск автономии. чтобы найти оптимальный баланс между различными режимами работы с акцентом на обеспечение максимальной поддержки принятия решений для боевиков ", говорит он.

Нет международного консенсуса

Но вне закона роботы-убийцы могут оказаться трудными. Бонни Дочерти, старший научный сотрудник Human Rights Watch и заместитель директора по вооруженным конфликтам и защите гражданских лиц в Международной клинике по правам человека Гарвардской школы права, сообщает в электронном письме, что, хотя большинство стран на конференции ООН обеспокоены автономным оружием, все же консенсусная поддержка юридически обязывающего международного запрета.

Будет ли работать запрет на роботов-убийц? Например, давний международный договор о запрещении химического оружия, по-видимому, не прекратил применение такого оружия в сирийской гражданской войне.

Тем не менее, Дочерти утверждал, что запреты на химическое оружие, противопехотные мины и кассетные боеприпасы все еще спасли жизни. «Такие законы связывают страны, которые присоединяются к ним, и стигматизация проблемного оружия может повлиять даже на страны, которые не являются его участниками. Любой закон - даже против широко признанного преступления, такого как убийство, - может быть нарушен мошенником, но это не означает, что такое законы не должны быть приняты. Закон по-прежнему оказывает существенное влияние на поведение, и должен быть принят новый международный договор, предусматривающий упреждение полностью автономного оружия », - пишет она.