В ПРОШЛОМ АВГУСТЕ НЕСКОЛЬКО десятков военных роботов и роботов-танков поднялись в небо и на дороги в 40 милях к югу от Сиэтла. Их главная цель: найти террористов, связанными с укрытием нескольких строений.
Такие бесчисленные роботы были заняты такой деятельностью, что ни один человек не мог уследить за каждым из них. Таким образом, им было дано указание по обнаружению и обезвреживанию вражеских точек, когда это необходимо.
Эта миссия была всего лишь учением, координировавшимся Агентством перспективных исследовательских проектов Министерства обороны, исследовательским подразделением Пентагона. У роботов не было ничего более смертоносного, чем радиопередатчики, предназначенные для имитационного сигнала как для союзных, так для вражеских роботов.
Учения были одними из немногих, проведенных прошлым летом, чтобы проверить, как искусственный интеллект может помочь в расширении использования дронов в военных структурах, учитывая ситуации, которые являются чрезмерно запутанными и быстроменяющимися для людей, принимающих сложный выбор в критической ситуации. Демонстрации также отражают незатейливое изменение в подходе Пентагона к автономному оружию, поскольку становится все более очевидным, что машины могут побеждать людей при анализе сложных обстоятельств или в работе с высокой скоростью.
Генерал Джон Мюррей из Командования будущего армии США заявил месяц назад аудитории в Военной академии США, что множество роботов заставят военных организаторов, политиков и общество задуматься о том, должен ли человек выбирать каждый вариант использования смертоносной силы в новых автономных системах. Мюррей задал вопрос: «Есть ли у человека возможность выбирать, какие из них должны быть задействованы», а затем принять около 100 индивидуальных решений? «Неужели необходимо, чтобы человек участвовал в решении?» добавил он.
Иные комментарии военных комендантов гласят о заинтересованности в придании самостоятельным структурам вооружений больше полномочий. На совещании по ИИ (Искусственный интеллект) в ВВС неделю назад Майкл Канаан, глава отдела задач по ускорителю искусственного интеллекта ВВС в Массачусетском технологическом институте и главный голос по ИИ в вооруженных силах США, сказал, что вера растет. Он говорит, что ИИ должен действительно выявлять и различать потенциальные цели, в то время как люди останавливаются на бесспорных выборах высокого уровня. «Я полагаю, это то будущее, куда мы идем», - говорит Канаан.
По аналогичному случаю генерал-лейтенант Клинтон Хиноте, заместитель начальника штаба Пентагона по стратегии, интеграции и требованиям, сказал, что вопрос о том, можно ли вывести человека из круга смертоносных автономных систем, является «одним из обсуждаемых тем, [И] на данный момент еще не решено».
На видео пример и представление о том, что из себя представляет искусственный интеллект и как он развивается. Также показаны некоторые кадры из фильма "Я робот"
В отчете, опубликованном в этом месяце Комиссией национальной безопасности по искусственному интеллекту (NSCAI), на совете, проведенным Конгрессом, среди прочего было высказано предположение, что США выступают против необходимости глобального запрета на совершенствование автономного оружия.
Тимоти Чанг, директор программы Darpa, ответственный за проект роения, говорит, что деятельность предыдущего лета была направлена на выяснение того, когда оператор дронов должен и не должен делать выбор в пользу автономных систем. Например, при столкновении с нападениями на нескольких направлениях человеческий контроль может иногда препятствовать выполнению миссии, поскольку отдельные лица не могут реагировать достаточно быстро. «Учитывая все обстоятельства, рамки могут быть улучшены, если никто не будет вмешиваться», - говорит Чанг.
Дроны, размер каждого с огромный рюкзак, получили общую цель, и в этот момент использовали вычисления ИИ, чтобы разработать механизм для его выполнения. Некоторые из них охватывали строения, а другие выполняли разведывательные действия. Пара была уничтожена воссозданной взрывчаткой; некоторые распознали сигналы, обращенные к вражеским войскам, и решали атаковать.
США и другие страны довольно давно использовали автономность в системе вооружений. Например, несколько ракет могут самостоятельно распознавать и атаковать противников внутри данного региона. В любом случае быстрый прогресс в расчетах ИИ изменит то, как военные используют такие структуры. Готовый ИИ-код, оснащенный для управления роботами и определения этапов и целей, часто с высокой надежностью, сделает возможным создание большего количества систем в более широком диапазоне. Использование ИИ в оружейных системах в последнее время вызывает сомнения. В 2018 году Google столкнулся с протестами и возражениями общественности в связи с предоставлением ВВС инноваций в области искусственного интеллекта в рамках проекта, известного как Maven.
В некотором смысле, это начинание необходимо для долгой истории самоуправления в сфере вооружений, для некоторых ракет, эффективно оснащенных для выполнения определенных задач, не зависящих от человеческого контроля. Как бы то ни было, это дополнительно показывает, как постоянные достижения в области ИИ сделают самоуправление более привлекательным и неизбежным в определенных ситуациях. Более того, он демонстрирует доверие к инновациям, которые в любом случае могут действовать непредсказуемо.
Пол Шарр, специалист Центра новой американской безопасности и автор книги «Army of None: Autonomous Weapons and the Future of War», говорит, что пришло время более тонко поговорить об инновациях в самоуправляемом оружии. Разговор о «настроенных людях» должен быть более современным, чем просто бинарным «это они или нет?» - говорит Шарр. «В случае, если человек остановится на выборе столкновения с множеством вражеских дронов, должен ли человек независимо выбирать каждую цель?»
В ноябре 2012 года министерство обороны приняло соглашение о самоуправляющемся оружии, заявив, что структура самоуправляемого оружия должна находиться под надзором человека - однако это не означает, что солдаты должны принимать выбор.
Люди, которые признают, что военные могут использовать ИИ, чтобы перейти Рубикон в отношении человеческого долга в отношении смертоносной силы, видят вещи неожиданным образом.
«Смертоносное самоуправляемое оружие, достаточно дешевое, чтобы каждый террорист мог позволить себе его, не отвечает интересам общественной безопасности Америки», - говорит Макс Тегмарк, профессор Массачусетского технологического института и соучредитель Future of Life Institute, некоммерческой организации, выступающей против автономного оружия.
Тегмарк говорит, что оружие ИИ следует «запретить как биологическое оружие». Сопротивление в отчете NSCAI всемирному бойкоту является стратегической ошибкой, он говорит: «Я думаю, что однажды мы пожалеем гораздо больше, чем о вооружении талибов».