Мир десятилетиями пугали "Скайнетом" из фильма "Терминатор" — ИИ, которого тогда ещё не существовало даже в зачатке, но который в массовом воображении уже восставал против своих создателей и запускал ядерную войну.
Мы почти не заметили, как в 20-е подошли к куда более опасному сценарию. Не к восстанию машин, а к миру, в котором ИИ не нажимает кнопку сам — но лишает человека времени, необходимого, чтобы её не нажать.
Парадокс в том, что спасение от этого "Скайнета" находится там же, где его искали в кино — глубоко под землей, в защищённом бункере. Но не в американском. В нашем, русском.
Но обо всём по порядку. В СМИ и соцсетях расходятся новости об очередном расширении сотрудничества Пентагона с компанией xAI.
Искусственный интеллект давно встроен в разведку, логистику и планирование. Все страны, особенно на фоне спецоперации на Украине, активно вводят ИИ в контуры управления дронами, всё той же разведкой и целеуказанием.
Крупнейшие аналитические центры прогоняют через нейросети стратегии и миллионы "боёв" в играх — для советов реальным военспецам.
Теперь ИИ подбирается к самой опасной границе — к ядерному командованию и управлению. И это уже не журналистский хайп.
Представители стратегического командования и ВВС США открыто говорят о необходимости "включать ИИ в контур" — просто как советчика, без права на залп.
И вот здесь технологическое превосходство перестаёт быть благом. Скорость, интеллект и адаптивность, которые в обычной войне дают преимущество, в ядерной логике превращаются в фактор невероятного, просто экзистенциального риска.
Главная угроза ИИ в ядерной сфере — не автономный пуск. Этого действительно никто не позволит. Настоящая беда — катастрофа скоростей, которую аналитики всё чаще называют Flash War. ИИ не заменяет человека — он стирает человека как субъекта решения.
Машина выдаёт анализ за секунды. Человеку нужно 10-15 минут, чтобы осмыслить масштаб, сопоставить контекст, допустить мысль об ошибке, попробовать связаться с противником по "горячей линии".
Раньше эти минуты были. Теперь есть гиперзвук, есть ИИ — их больше нет.
Возникает эффект "резиновой печати". Представьте, что мудрый ИИ, который поставили высокие начальники в погонах, показывает "вероятность атаки 99%, надо предотвратить своим ударом — "отмена" или "огонь"?". Согласие выглядит рациональным. Несогласие в духе "надо бы проверить" требует почти самоубийственной смелости.
Как это выглядит на практике, лучше всего показывает короткий фильм-симуляция "Artificial Escalation", сделанный Future of Life Institute.
Ролик начинается предельно знакомо. Создатель передовой ИИ-системы уверяет военных, что его "лучшая и самая быстрая" разработка — всего лишь помощник. Человек — всегда главный. Никакого "Скайнета", никакого автономного пуска. Система внедряется в контур принятия решений как инструмент анализа кризисов. На экранах аккуратный интерфейс, вероятности, таймеры, подсказки.
Дальше — ситуация, в которой "вроде бы атака Китая". А может, и нет. США повышают готовность. Китай видит это и повышает свою. ИИ воспринимает это как подтверждение "атака скоро" и предлагает повышать снова.
Китай усиливает разведку и высылает авиацию. США отвечают кибератаками и ПВО. Обе стороны раз за разом кликают "да" на советы ИИ, которые выдаются за секунды: "повысить", "приготовиться", "противодействовать".
Итог — сообщение "атака в ближайшие минуты, атаковать первым — "да" или "нет"?
Это не приказ. Это рекомендация. С дедлайном. Как бы вы поступили? Вот и они так же. Открываются ракетные шахты. Обе стороны боятся, что "те успеют нас уничтожить", а значит, "надо опередить".
Звучит фраза: "Господин президент, необходимо срочно эвакуироваться в защищённый бункер". Красивая музыка. Под неё Земля покрывается ядерными взрывами.
Всё предельно честно. В этом сценарии ИИ не принимает решение о пуске. Он лишь сжимает время до точки, где решение становится формальностью.
Офицер получает не догадку, а безупречный график, чистую логику и жёсткий таймер. Кошмар "безупречной лжи" — ошибка, которая не выглядит как ошибка и потому не может быть остановлена.
По сути, глобальная стабильность сегодня держится на трёх принципиально разных моделях замедления катастрофы.
- "Самолёты Судного дня" в США
- Система "Периметр" в России
- Мощнейшие боевые ИИ-полководцы в Китае
Американских "Самолётов Судного дня" боятся, считая "вестниками ядерного Апокалипсиса", но они скорее его замедлители. Одна из их задач — сохранить управление и подтвердить физическую реальность катастрофы, "немного подождать и увидеть". Если, конечно, аналитику этих летающих штабов однажды не решат полностью отдать ИИ, а такие идеи уже звучат.
Российская система "Периметр" и вовсе выглядит главным спасителем мира. Она не анализирует намерения, не прогнозирует будущее и не реагирует на сигналы раннего предупреждения. Она ждёт физического факта конца света — землетрясений от взрывов, повышения радиации, отсутствия связи, движения по дорогам, радио и т. д.
Километры скальной породы и полная изоляция делают систему нечувствительной к ядерной атаке, взлому, ИИ-галлюцинациям. Именно эта простота даёт Москве силы и право не торопиться.
КНР декларирует принцип "никогда не ударим (ядеркой) первыми", но не имеет ни аналога "Периметра", ни полноценных авиационных центров управления. В результате Китай использует ИИ как компенсатор уязвимости. В ИИ загружают "личности" военных гениев прошлого, строят сетецентрические контуры, сажают на алгоритмы боевое управление. И именно это делает Китай самым рискованным элементом в эпоху Flash War.
В эпоху гонки ИИ гарантом жизни на Земле неожиданно оказывается наш, русский, бункер в горе, бинарное реле и два офицера перед ним, как и положено по всем правилам ядерного управления.
Опять русские спасают мир. Прямо как в кино. Только не в голливудском.