Американские системы ядерного предупреждения не готовы к ИИ, утверждает в журнале The Foreign Affairs старший научный сотрудник по ядерной безопасности имени Стэнтона в Совете по международным отношениям Эрин Д. Дамбахер
С самого начала ядерной эры политики и стратеги пытались предотвратить случайное применение ядерного оружия какой-либо страной. Но вероятность аварий остается такой же высокой, как и во времена холодной войны. В 1983 году советская система раннего предупреждения ошибочно указала на то, что США наносят ядерный удар по Советскому Союзу; такое предупреждение могло спровоцировать катастрофический советский контрнаступление. Этого удалось избежать только потому, что дежурный руководитель Станислав Петров определил, что тревога была ложной. Если бы он этого не сделал, у советского руководства были бы основания применить самое разрушительное в мире оружие против Соединенных Штатов.
Быстрое распространение искусственного интеллекта усугубило угрозы ядерной стабильности. Одна из опасностей заключается в том, что ядерное государство может делегировать решение о применении ядерного оружия машинам. Однако Соединенные Штаты ввели гарантии, обеспечивающие принятие окончательного решения о нанесении удара человеком. Согласно Национальной стратегии обороны 2022 года, человек будет оставаться «в курсе» любых решений об использовании или прекращении использования ядерного оружия. Президент США Джо Байден и лидер Китая Си Цзиньпин в своих заявлениях сошлись во мнении, что «решение об использовании ядерного оружия должно приниматься человеком».
Тем не менее, искусственный интеллект представляет собой еще одну коварную угрозу ядерной безопасности. Он облегчает создание и распространение дипфейков — убедительно измененных видео, изображений или аудиозаписей, используемых для генерации ложной информации о людях или событиях. И эти методы становятся все более изощренными. Через несколько недель после вторжения России в Украину в 2022 году широко распространенный дипфейк показал, как президент Украины Владимир Зеленский призывает украинцев сложить оружие; в 2023 году дипфейк заставил людей ошибочно поверить, что президент России Владимир Путин прервал передачу государственного телевидения, чтобы объявить о полномасштабной мобилизации. В более экстремальном сценарии дипфейк может убедить лидера государства, обладающего ядерным оружием, в том, что противник готовится к первому удару, или же платформа разведки, поддерживаемая ИИ, может выдавать ложные тревоги о мобилизации или даже о грязной бомбовой атаке со стороны противника.
Администрация Трампа хочет использовать ИИ в целях национальной безопасности. В июле она опубликовала план действий, призывающий к «агрессивному» использованию ИИ во всем Министерстве обороны. В декабре министерство представило GenAI.mil, платформу с инструментами ИИ для сотрудников. Но по мере того, как администрация внедряет ИИ в инфраструктуру национальной безопасности, для политиков и разработчиков систем будет крайне важно проявлять осторожность в отношении роли машин на ранних этапах принятия решений в ядерной сфере. До тех пор, пока инженеры не смогут предотвратить проблемы, присущие ИИ, такие как галлюцинации и подмена — когда большие языковые модели предсказывают неточные закономерности или факты, — правительство США должно обеспечить, чтобы люди продолжали контролировать системы раннего предупреждения о ядерном угрозе. Другие государства, обладающие ядерным оружием, должны поступить так же.
КАСКАДНЫЕ КРИЗИСЫ
Сегодня президент Дональд Трамп использует телефон для доступа к дипфейкам; иногда он перепостит их в социальных сетях, как и многие из его ближайших советников. По мере того, как грань между реальной и ложной информацией размывается, возрастает вероятность того, что такие дипфейки могут повлиять на важные решения в области национальной безопасности, в том числе касающиеся ядерного оружия.
Если дезинформация сможет обмануть президента США хотя бы на несколько минут, это может обернуться катастрофой для всего мира. Согласно американскому законодательству, президенту не нужно ни с кем консультироваться, чтобы отдать приказ о применении ядерного оружия как для ответного удара, так и для первого удара. Военные чиновники США находятся в состоянии готовности к развертыванию самолетов, подводных лодок и наземных ракет, несущих ядерные боеголовки. Американская межконтинентальная баллистическая ракета может достичь своей цели в течение получаса — и после запуска такой ракеты никто не сможет ее отозвать.
Дипфейки могут помочь создать предлоги для войны.
И американские, и российские ядерные силы готовы к «наступлению по предупреждению», то есть могут быть развернуты, как только будут обнаружены приближающиеся к ним ракеты противника. Это оставляет лидеру всего несколько минут на оценку того, началось ли ядерное нападение противника. (В соответствии с действующей политикой США, президент имеет право отложить принятие решения до тех пор, пока ядерное оружие противника не нанесет удар по Соединенным Штатам.) Если система раннего предупреждения США обнаружит угрозу для Соединенных Штатов, американские официальные лица попытаются проверить информацию о нападении, используя как секретные, так и несекретные источники. Они могут изучить спутниковые данные об активности на известных военных объектах, отслеживать недавние заявления иностранных лидеров, а также проверять социальные сети и зарубежные новостные источники для получения контекста и информации с мест событий. Затем военные офицеры, государственные служащие и политические назначенцы должны решить, какую информацию передать по цепочке и как она будет представлена.
Дезинформация, распространяемая с помощью искусственного интеллекта, может спровоцировать каскадные кризисы. Если системы искусственного интеллекта используются для интерпретации данных раннего предупреждения, они могут имитировать нападение, которого на самом деле нет, — что поставит американских чиновников в положение, подобное тому, в котором оказался Петров четыре десятилетия назад. Поскольку внутренняя логика систем ИИ непрозрачна, люди часто остаются в неведении относительно того, почему ИИ пришел к тому или иному выводу. Исследования показывают, что люди со средним уровнем знакомства с ИИ склонны полагаться на результаты работы машин, а не проверять их на предвзятость или ложные срабатывания, даже когда речь идет о национальной безопасности. Без обширного обучения, инструментов и операционных процессов, учитывающих слабые стороны ИИ, советники лиц, принимающих решения в Белом доме, могут по умолчанию предполагать — или, по крайней мере, допускать — возможность того, что контент, сгенерированный ИИ, является точным.
Дипфейки, распространяемые через открытые медиаресурсы, почти так же опасны. После просмотра дипфейк-видео американский лидер может, например, неверно истолковать российские ракетные испытания как начало наступательных ударов или принять китайские учения с боевой стрельбой за нападение на союзников США. Дипфейки могут помочь создать предлоги для войны, подогреть общественную поддержку конфликта или посеять путаницу.
ВНИМАНИЕ К ПЕРСПЕКТИВАМ
В июле администрация Трампа опубликовала план действий в области ИИ, предусматривающий агрессивное внедрение инструментов ИИ в Министерстве обороны, крупнейшей в мире бюрократической структуре. ИИ доказал свою полезность в повышении эффективности некоторых военных подразделений. Машинное обучение упрощает планирование технического обслуживания эсминцев ВМС. Технологии ИИ, встроенные в автономные боеприпасы, такие как беспилотники, позволяют солдатам находиться в стороне от линии фронта. А инструменты перевода на основе ИИ помогают сотрудникам разведки анализировать данные о зарубежных странах. ИИ может быть полезен даже в некоторых других стандартных задачах сбора разведывательной информации, например, для различения изображений бомбардировщиков, припаркованных на аэродромах, за разные дни.
Внедрение ИИ в военные системы не обязательно должно быть принципом «всё или ничего». Есть области, которые должны быть закрыты для ИИ, включая системы раннего ядерного предупреждения и системы управления и контроля, где риски искажения и подмены данных перевешивают преимущества, которые может принести программное обеспечение на основе ИИ. Лучшие системы ИИ строятся на основе проверенных и всеобъемлющих наборов данных. Системы раннего ядерного предупреждения не обладают ни тем, ни другим, поскольку после Хиросимы и Нагасаки ядерных атак не было. Любая система обнаружения ядерного оружия с использованием ИИ, вероятно, должна будет обучаться на существующих данных испытаний ракет и отслеживания космических аппаратов, а также на синтетических данных. Инженерам потребуется запрограммировать защиту от ложных срабатываний или неточных оценок достоверности — значительные технические препятствия.
Может возникнуть соблазн заменить проверки высококвалифицированного персонала инструментами ИИ или использовать ИИ для объединения различных источников данных с целью ускорения анализа, но исключение критически важного человеческого взгляда может привести к ошибкам, предвзятости и недопониманию. Подобно тому, как Министерство обороны требует значимого человеческого контроля над автономными дронами, оно также должно требовать, чтобы каждый элемент технологий раннего ядерного предупреждения и разведки соответствовал еще более высоким стандартам. Инструменты интеграции данных ИИ не должны заменять операторов-людей, сообщающих о приближающихся баллистических ракетах. Усилия по подтверждению раннего предупреждения о ядерном запуске на основе спутниковых или радиолокационных данных должны оставаться лишь частично автоматизированными. А участники важных конференц-звонков по вопросам национальной безопасности должны учитывать только проверенные и неизмененные данные.
В июле 2025 года Министерство обороны запросило у Конгресса средства на внедрение новых технологий в системы ядерного командования, управления и связи. Для правительства США было бы целесообразнее ограничить интеграцию ИИ и автоматизации кибербезопасностью, бизнес-процессами и аналитикой, а также простыми задачами, такими как обеспечение включения резервного питания при необходимости.
УСТАРЕВШАЯ СТРАТЕГИЯ
Сегодня опасность ядерной войны выше, чем за последние десятилетия. Россия угрожала применением ядерного оружия на Украине, Китай быстро расширяет свой арсенал, Северная Корея теперь имеет возможность отправлять межконтинентальные баллистические ракеты в Соединенные Штаты, а политика предотвращения распространения ядерного оружия ослабевает. На этом фоне еще важнее обеспечить, чтобы действия, намерения и цели противника оценивали люди, а не машины, обученные на некачественных или неполных данных.
Разведывательным агентствам необходимо улучшить отслеживание происхождения информации, полученной с помощью ИИ, и стандартизировать способы передачи информации политикам, когда данные дополняются или синтетически обрабатываются. Например, когда Национальное агентство геопространственной разведки использует ИИ для генерации разведывательной информации, оно добавляет в отчет предупреждение о том, что контент создан машинным способом. Аналитики разведки, политики и их сотрудники должны быть обучены проявлять дополнительный скептицизм и проверять факты в отношении информации, которую невозможно проверить немедленно, подобно тому, как многие предприятия сейчас бдительно относятся к целевому киберфишингу. И разведывательным агентствам необходимо доверие политиков, которые могут быть более склонны верить тому, что видят своими глазами и видят их устройства — правде или ложи — чем тому, что показывают разведывательные данные.
Эксперты и технологи должны продолжать работать над поиском способов маркировки и замедления распространения мошеннической информации, изображений и видео в социальных сетях, которые могут влиять на политиков. Но, учитывая сложность контроля за информацией из открытых источников, еще более важно, чтобы секретная информация была точной.
Искусственный интеллект уже способен обманывать лидеров, заставляя их видеть атаку, которой нет.
Обновления администрации Трампа в отношении ядерной политики США в рамках Национальной стратегии обороны должны защитить от вероятных и неуправляемых рисков, связанных с информацией об ИИ для ядерного оружия, подтвердив, что машина никогда не примет решение о ядерном запуске без участия человека. В качестве первого шага все ядерные державы должны согласиться с тем, что решения о применении ядерного оружия будут принимать только люди. Затем им следует улучшить каналы связи в кризисных ситуациях. Горячая линия для диалога существует между Вашингтоном и Москвой, но не между Вашингтоном и Пекином.
Ядерная политика и позиция США мало изменились с 1980-х годов, когда лидеры опасались, что Советский Союз может внезапно напасть. Тогдашние политики не могли представить, какой объем дезинформации будет поступать на личные устройства людей, отвечающих за ядерное оружие сегодня. И законодательная, и исполнительная ветви власти должны пересмотреть политику в отношении ядерного оружия, разработанную для холодной войны. Например, политики могли бы обязать будущих президентов консультироваться с лидерами Конгресса перед нанесением первого ядерного удара или установить определенный период времени для проверки информации, на которой основано решение, специалистами разведки. Поскольку у Соединенных Штатов есть возможности для нанесения ответного удара, точность должна иметь приоритет над скоростью.
Искусственный интеллект уже обладает потенциалом обмануть ключевых лиц, принимающих решения, и членов ядерной иерархии, заставив их увидеть атаку, которой нет. В прошлом только подлинный диалог и дипломатия предотвращали недопонимания между ядерными державами. Политика и практика должны защищать от пагубных информационных рисков, которые в конечном итоге могут привести к концу света.
© Перевод с английского Александра Жабского.