По мере того как военные мира спешат выиграть гонку ИИ, организации повышают свой голос в оппозиции.
Во время патрулирования в горах Афганистана в 2004 году бывший рейнджер армии США Пол Шарре заметил девочку лет пяти, которая шла с любопытством рядом со своей снайперской командой среди небольшого стада коз.
Вскоре стало ясно, что она докладывает талибам об их местонахождении в соседней деревне. С юридической точки зрения, как указывает Шарре в книге Army of None: Autonomous Weapons and the Future of War "Автономное оружие и будущее войны", ее поведение было поведением вражеского участника боевых действий. С юридической точки зрения ее убийство входило бы в сферу действия законов войны. Этически—морально—это было неправильно, и Шарре и его команда это знали. Девушка двинулась дальше, и их миссия продолжилась.
Вопросы, которые он позже задавал себе по поводу этой миссии, были тревожными: что, если бы в такой ситуации было установлено автономное оружие? Сможет ли искусственный интеллект (ИИ) когда-нибудь отличить законное от морального?
В последние годы на первый план вышли дебаты о том, как этично управлять летальными автономными системами оружия (LAWS). Когда военные во всем мире маршируют к будущему с искусственным интеллектом, как общество будет программировать машины, обладающие проницательностью, необходимой для принятия сложных жизненно важных решений в нестабильных обстоятельствах? Возможна ли вообще такая вещь, как этическая война?
Шарр представляет отрезвляющий пример того, как может выглядеть неправильный вопрос о военном ИИ. Этот вопрос столь же важен, сколь и срочен. Хотя идея смертоносных систем искусственного интеллекта не совсем нова, учитывая темпы технического прогресса, опасения, которые были теоретическими десять лет назад, быстро становятся вполне реальными. Многие сейчас задаются вопросом, сможет ли общество масштабировать свою этику соответствующим образом и достаточно быстро, чтобы опасения по поводу этих технологий не стали реальностью.
Точно так же достоинства роботизированной войны заслуживают серьезного рассмотрения. Подобные технологии могут принимать решения на поле боя с математической скоростью и точностью. Экономия времени часто означает спасение жизней. Машинное «мышление» не меняется из-за усталости или травм, явлений, которые обычно влияют на солдат на земле, и эта последовательность может положить конец конфликтам раньше, чем позже.
Исследователи искусственного интеллекта, технические лидеры и политики согласны с тем, что автономное вооружение развивается головокружительными темпами. Несмотря на это, страны и организации, разрабатывающие эту технологию, только начинают формулировать идеи о том, как этика повлияет на войны ближайшего будущего.
Например, в рекомендациях Министерства обороны США говорится, что технология должна «позволять операторам адекватно оценивать человеческое суждение о применении силы». Точно так же Институт ООН по исследованию проблем разоружения требует наличия некоторого «значимого человеческого контроля».
Что означают эти фразы на практике, остается неясным.
Взгляд на проблему издалека показывает динамику различных действующих сил: организаций, стимулирующих развитие законов, организаций, призывающих к осторожности и поощрения диалога при этом, и тех, кто с самого начала выступает против самой идеи.
Любовь с первого взгляда
Боевой ИИ потенциально может принести большую пользу с этической точки зрения на поле боя. В статье для The Military Review Амитаи Этциони, профессора социологии Университета Джорджа Вашингтона в Вашингтоне округ Колумбия, и Орен Эциони, генерального директора Института искусственного интеллекта Аллена, отмечают, что эта технология на самом деле может стать лучшим путем к будущей этической войне.
Во-первых, удаление солдат с поля боя и замена их роботизированным оружием по определению спасет жизни. Автономные системы также будут более надежными, чем люди, в выявлении этических нарушений и военных преступлений и сообщении о них. Солдаты, чей мозг был перегружен стрессом и травмами, склонны к ошибкам. Роботизированные схемы и датчики не привязаны к изменчивой субъективности ума.
Хотя трудно точно сказать, какие мотивы движут этой тенденцией, военные чиновники во всем мире, похоже, стремятся культивировать технологию ведения войны с искусственным интеллектом в максимально возможной степени. В недавнем интервью газете Washington Post генерал-лейтенант Джек Шанахан, первый директор Объединенного центра искусственного интеллекта Пентагона, сказал: «Мы собираемся разработать это оружие. Мы делаем это сознательно».
Комиссия национальной безопасности по искусственному интеллекту, возглавляемая бывшим генеральным директором Google Эриком Шмидтом, подтверждает это отношение в своем 756-страничном заключительном отчете за март 2021 года. Этот документ является столь же всеобъемлющей оценкой позиции Соединенных Штатов в гонке ИИ, как и любая другая существующая, призывая Министерство обороны к 2025 году включить ИИ во все аспекты своей деятельности. Возможно, неудивительно, что большая часть отчета ссылается на растущие возможности ИИ в таких странах, как Россия и Китай.
Нетрудно понять почему. Согласно отчету Центра новой американской безопасности о стратегическом мышлении Китая в отношении ИИ за 2019 год, политические деятели и технические лидеры страны рассматривают (LAWS) как неизбежность. Китай уже экспортирует платформы наблюдения, а также беспилотные летательные аппараты (БПЛА), и в ближайшие годы эти усилия, вероятно, будут расширяться и активизироваться.
Россия тоже не собирается уступать. Стокгольмский международный институт исследования проблем мира утверждает, что испытания в стране беспилотных подводных аппаратов (БПА), потенциально способных доставлять ядерные боеголовки, уже прошли успешно. Международный институт стратегических исследований способствует это утверждение, добавив, что «до 32 систем Посейдон, как ожидается, будут развернуты на борту по крайней мере, четырех подводных лодок, хотя, возможно, не операционно до 2027»
Возможно, высокотехнологичное автоматизированное вооружение - не далекая мечта. Как сообщает The New York Times, Великобритания уже использовала базовую технологию искусственного интеллекта в своих ракетах Brimstone в 2011 году в Ливии. Программирование ракеты относительно простое, что позволяет различать различные типы транспортных средств, такие как автобусы и танки, чтобы минимизировать жертвы среди гражданского населения.
Перенесемся в 2021 год, и мы видим, как военные испытывают сложные автономные рои дронов. Институт современной войны в Вестпойнте заявляет, что «все звенья вооруженных сил США разрабатывают рой дронов», добавляя, что «рои разрабатывают также Россия, Китай, Южная Корея, Великобритания и другие». В прошлом году Forbes сообщил о вероятности попадания целого роя с достаточной огневой мощью на территорию оружия массового уничтожения (ОМУ).
Немного размышлений
Полчища автономных машин с возможностями уровня ОМУ являются для некоторых обескураживающей перспективой, и голоса осторожности раздаются из самых разных политических и социальных сферах. Одним из таких представителей является Пол Шарр, ныне старший научный сотрудник CNAS, который поддерживает связь с лидерами правительства США и частного сектора по вопросам политики национальной обороны.
Он также возглавлял команду, которая более десяти лет назад разработала директиву Министерства обороны, устанавливающую необязательный этический компас для военных программ.
Выступая в Стэнфордском университете в начале 2019 года, Шарр подчеркнул необходимость того, чтобы дебаты носили междисциплинарный характер, сказав: «Нам нужны не только технологи, но и юристы, специалисты по этике, социологи, чтобы принять в них участие».
Такие призывы к действию, начали вызывать отклик. В октябре 2019 года Совет по оборонным инновациям (DIB) опубликовал список из пяти этических принципов ИИ, которые помогут должностным лицам Министерства обороны ориентировать свои оружейные программы. DIB функционирует как независимая консультативная группа, состоящая из представителей Google, Microsoft, нескольких университетов (таких как Массачусетский технологический институт и Карнеги-Меллон) и общественных деятелей науки, таких как астрофизик Нил де Грасс Тайсон. Он был создан в 2016 году для того, чтобы довести технологические инновации и передовой опыт Кремниевой долины до вооруженных сил США и предоставить независимые рекомендации министру обороны США.
У технологических компаний, инвестирующих в ИИ, сложные отношения с законодательством. В 2018 году Google пообещал, что не будет работать с организациями, использующими технологии для разработки оружия, по этическим соображениям. Однако, по данным Forbes , Alphabet, материнская компания Google, в настоящее время ведет дела с компаниями, занимающимися проектами автономной робототехники, которые могут «напрямую способствовать травмам».
Призрак в машине
Для некоторых сама концепция этического оружия - оксюморон , и простого регулирования его разработки недостаточно. Вопросы, которые они поднимают, являются острыми: является ли устранение в какой-либо степени человеческой свободы выбора, предполагающего прекращение человеческих жизней, мудрым путем, по которому следует идти вниз? Поскольку сложность человеческих ценностей не может быть адекватно представлена в автономных системах, можем ли мы сознательно делегировать такие решения роботам?
Опрос 25 стран, проведенный в 2017 году независимой компанией по исследованию рынка IPSOS, показал, что большинство респондентов 56 % выступают против использования автономного оружия . В преддверии принятия в 2019 году Конвенции ООН о конкретных видах обычного оружия такие страны, как Япония, выступали за более строгие правила в отношении законов.
Одной из самых крупных организаций, выступающих против законов, была законодательная ветвь власти Европейского Союза, которая в январе 2021 года выпустила свои руководящие принципы по использованию ИИ в военных целях. В пресс-релизе представители Европейского парламента призывают к запрету этой технологии. Эта позиция напоминает взгляды Кампании по остановке роботов-убийц, коалиции неправительственных организаций (НПО), работающих над предотвращением их разработки и использования.
Эту группу возглавляет Мэри Уэрхэм, руководитель отдела вооружений Хьюман Райтс Вотч и со-лауреат Нобелевской премии мира 1997 года за свою работу в Международной кампании за запрещение наземных мин. В интервью Ethics in Tech в сентябре 2020 года Уэрхэм сказал: «Если вы посмотрите на все различные проблемы, любая из них станет поводом заставить вас задуматься, почему мы хотели бы встать на путь к автономному оружию».
Несмотря на такое противодействие, кажется, что мир продвигается вперед с этой технологией. К счастью, дискуссии об этической роботизированной войне становятся все более популярными на мировой арене.
В то время как крупные международные державы, такие как Китай, продолжают вкладывать значительные средства в законы, они, похоже, не делают это вслепую. В апреле 2020 года Институт Брукингса отметил, что исследователи и военные ученые в стране начинают бороться с этическими последствиями ИИ.
США также могут уделять этим опасениям должное внимание. Заключительный отчет NSCAI в феврале 2021 года посвящает целую главу сохранению гражданских свобод и гражданских прав в эпоху автономных войн, предлагая ряд рекомендаций о том, как сделать это эффективно.
Организация утверждает, что «использование ИИ должностными лицами должно соответствовать принципам ограниченного правительства и личной свободы. В демократическом обществе любое расширение прав и возможностей государства должно сопровождаться разумными ограничениями, чтобы сделать эту власть легитимной в стране глазами своих граждан».
Международное сознание в отношении этических технологий действительно может расти. В сентябре 2020 года Министерство обороны провело первую встречу Партнерства по искусственному интеллекту для обороны, коалиции, в которую входят Австралия, Канада, Дания, Эстония, Финляндия, Франция, Израиль, Япония, Норвегия, Республика Корея, Швеция и Соединенное Королевство. AIPD опубликовал заявление после того, как группа собралась в прошлом году, определив свою цель как собрать нации для поощрения и облегчения ответственного использования ИИ.
Сбалансированный и реалистичный подход может быть лучшим вариантом для тех, кто обеспокоен этим новым технологическим горизонтом. Организации и отдельные лица, оставшиеся открытыми для сотрудничества и налаживания отношений, вероятно, будут иметь решающее значение для создания безопасного видения будущего. Выступая в недавнем интервью Институту будущего жизни, Пол Шарр еще раз подтверждает эту точку зрения отчетливо человеческим тоном:
«Если вас беспокоит будущий риск ИИ, создайте институциональную мускульную память у соответствующих участников в обществе - будь то национальные государства, ученые ИИ, члены гражданского общества, кто бы это ни был. Собравшись вместе и достигнув какого-либо соглашения, вероятно, действительно важно начать тренировать эти мышцы уже сегодня».