Найти в Дзене
Smapse News: Образование и наука

Опасны ли современные беспилотники? Разбираемся в современном вооружении, которое работает без человека

Оглавление

Весной 2020 на фронтах ливийской войны случилось событие, изменившее лицо войны. Дрон без участия человеческого командования выследил боевиков и нанёс по ним удар высокоточными ракетами. Вероятно, это первый и пока единственный кейс нападения ударного БПЛА без приказа со стороны живого человека. А также – событие, демонстрирующее явную и неприкрытую опасность использования автономно организованных систем вооружения.

Информация об этом событии стала достоянием гласности лишь через год: это кратко отметила в своём пятисотстраничном отчёте мониторинговая группа экспертного сообщества ООН по ливийскому урегулированию. В мае кейс упомянул в отчёте Human Rights Watch, в бюллетене атомщиков и издании «Новый учёный». Но публикация в «Нью Йорк Пост» стала знаковой, открыв проблему для читателей всего мира.

Автономность

Повышенное внимание учёного сообщества к этому давнишнему и не имеющему заметных последствий событие объяснимо. Десятилетиями военные применяют беспилотные разведывательные и ударные аппараты, многочисленных роботов, удалённо выполняющих задачи под водой или на суше – но такой техникой всегда руководит человек, в американской армии их даже называют не беспилотниками, а пилотируемыми дистанционно.

Автономность же – другой уровень. Такие машины действуют без живого человека, что чревато незапланированными жертвами, на что акцентируют внимание антивоенные активисты, пропагандирующие запрет боевой робототехники.

Что именно пойдёт под откос, сейчас предположить трудно, но возможность сбоев без труда прогнозируется каждым, кто хоть раз сталкивался с ИИ – от поисковых систем и ботов для чатов до распознающих изображения, звук и текст программных продуктов. В качестве примера такого автономного вооружения (в соответствующем режиме) приводят автоматическую пулеметную установку SGRA1, разработку «Самсунг», что уже применяется для охраны зоны демилитаризации на Корейском перешейке.

Производители яростно отрицают такую возможность, утверждая: без оператора система работать не будет. Такой же режим есть в системах ПРО «Иджис» и «Железный купол», у наземных систем ПВО и ПРО американских военных баз в Европе. Однако это оборонительные системы – и оператор сознательно врубает режим автономного принятия решений.

А про ливийский кейс специалисты комитета по правам человека Организации Объединённых наций говорят иначе: несущие смерть системы были снабжены программой, нацеленной на поражение целей и не требующей связи с оператором – это автономное и независимое применение механизмов наведения и целеполагания.

При отсутствии связи с БПЛА оператор не может контролировать условий работы, и кейс может расцениваться, как тревожный и опасный прецедент. Но как всё на самом деле происходило, остаётся вопросом.

Туман войны 2.0

Доклад утверждает, что части тыла и бегущие солдаты военных формирований фельдмаршала Хафтара выслеживались и дистанционно атаковывались военными беспилотниками или ударными независимыми комплексами вооружения типа STM Kargy-2, как и другими планирующими и барражирующими боевыми машинами.

Речь идёт про машинку весом 15 кило производства турецкой компании, позиционирующей свой продукт в качестве оружия для несимметричных боевых действий и операций против террористов. По сведениям фирмы, они могут обрабатывать видео в режиме риалтайм и содержат машинообучаемые алгоритмы – то есть способны самостоятельно анализировать картинку и обучаться. Также БПЛА способен распознавать лица.

Этот агрегат – камикадзе: найдя цель, он снижается и атакует её, а затем подрывается; при этом атака может осуществляться несколькими агрегатами разом, действующими в режиме роя, использующего коллективный ИИ.

Компания утверждает, что аппарат автономен, но не вдаётся в детали: неизвестно, насколько велика степень автономности. Может ли он принимать отдельные решения в рамках задачи или полностью свободен? Вероятность изучения независимыми экспертами мала, как и шанс на попадание в руки противника – в этом случае беспилотник самоуничтожится.

Есть определённая вероятность блефа: продавцу свойственно давать завышенные ТТХ своему товару. Возникает справедливое сомнение в обоснованности мнения ООН об отсутствии связи с оператором и моменте включения режима автономности, а также степени участия человека в выборе цели и принятии решения о стрельбе на поражение.

Мишель Холланд, специалист по БПЛА и сотрудник института Организации по вопросам разоружения, убеждён: в будущем количество подобных случаев применения оружия, находящегося в серой зоне между автоматом и автономной системой, будет расти. Он утверждает: такое оружие требует созыва конференции для проведения переговоров.

Законы военной робототехники

Правозащитники и активисты требуют ввести запрет на убийственных роботов. Было опубликовано открытое письмо за подписью более 120 лидеров технологической отрасли. О поддержке запрета заявил ряд государств, но на уровне международной политики этот вопрос не в приоритете, подвижек не видно.

Процесс переговоров по этой теме связан со спецгруппой Конвенции Объединённых Наций о негуманных вооружениях. В 2019 были согласованы одиннадцать принципов по вопросам оружия, фиксирующих такие проблемы, как применение международного гуманитарного права к подобным системам, важность сохранить ответственность человека за решение о нанесении удара, оценка и вероятностное снижение рисков при разработке новых систем. О запрете речи нет: правозащитники понимают своё место и не заикаются о подобном.

В числе врагов введения жёсткого регулирования международным правом – Соединённые Штаты и Российская Федерация. Представители военного ведомства США убеждены, что развитие систем обусловлено аналогичными действиями противников США. Русские также не стоят в стороне – в мае Шойгу говорил о запуске серии роботов, способных воевать без участия оператора.

Китайцы избрали особый путь: на словах выступая за запрет применения САС, считают допустимым вести разработки и производить такое оружие. Но этими тремя странами всё не ограничено — перечень государств, ведущих такие разработки, гораздо шире.

И уж если военные убеждены, что такие машинки дадут им преимущество, они будут ими пользоваться, невзирая ни на какие права. Остановить их не выйдет.

Эффект «зловещей долины»: может ли робот осчастливить человечество?

Более мягкий способ урегулировать проблему сводится к принятию сводов норм этики применения такого оружия. К примеру, в январе прошлого года Пентагоном были утверждены 5 принципов, обусловливающих применение ИИ. Американцы видят своего военного бога из машины ответственным, беспристрастным, контролируемым, безотказным и управляемым. Эти принципы заимствованы из гражданских отраслей. Аналогичными этическими разработками занимаются военные специалисты Франции.

Подобные меры позволят снизить риски, но даже если представить, что стоящие на вооружении США или России машины смерти станут чуть безопаснее, это не скажется на конфликтах по типу ливийского, где турецкий БПЛА с автономными функциями попал в страну наперекор действующему эмбарго на поставку систем вооружений. Так что ожидать прогресса можно лишь в случае скоординированных усилий мирового сообщества на площадке ООН или региональных – не ранее.

ПОДПИСЫВАЙТЕСЬ на мой YouTube канал! Ставьте ПАЛЕЦ ВВЕРХ и

ПОДПИСЫВАЙТЕСЬ на Дзен канал

Читайте также:

Учиться в США или Великобритании, не покидая России? Часть 1

✅ Где изучать IT и программирование в США? Лучшие курсы и университеты

Один язык хорошо, а два лучше. Как учить два языка одновременно?