Найти в Дзене
MilitaryPravda

Мы боялись не того "Скайнета": ИИ может развязать ядерную войну без кнопки “Пуск”

Мир десятилетиями пугали "Скайнетом" из фильма "Терминатор" — ИИ, которого тогда ещё не существовало даже в зачатке, но который в массовом воображении уже восставал против своих создателей и запускал ядерную войну. Мы почти не заметили, как в 20-е подошли к куда более опасному сценарию. Не к восстанию машин, а к миру, в котором ИИ не нажимает кнопку сам — но лишает человека времени, необходимого, чтобы её не нажать. Парадокс в том, что спасение от этого "Скайнета" находится там же, где его искали в кино — глубоко под землей, в защищённом бункере. Но не в американском. В нашем, русском. Но обо всём по порядку. В СМИ и соцсетях расходятся новости об очередном расширении сотрудничества Пентагона с компанией xAI. Искусственный интеллект давно встроен в разведку, логистику и планирование. Все страны, особенно на фоне спецоперации на Украине, активно вводят ИИ в контуры управления дронами, всё той же разведкой и целеуказанием. Крупнейшие аналитические центры прогоняют через нейросети стратег

Мир десятилетиями пугали "Скайнетом" из фильма "Терминатор" — ИИ, которого тогда ещё не существовало даже в зачатке, но который в массовом воображении уже восставал против своих создателей и запускал ядерную войну.

Мы почти не заметили, как в 20-е подошли к куда более опасному сценарию. Не к восстанию машин, а к миру, в котором ИИ не нажимает кнопку сам — но лишает человека времени, необходимого, чтобы её не нажать.

Парадокс в том, что спасение от этого "Скайнета" находится там же, где его искали в кино — глубоко под землей, в защищённом бункере. Но не в американском. В нашем, русском.

Но обо всём по порядку. В СМИ и соцсетях расходятся новости об очередном расширении сотрудничества Пентагона с компанией xAI.

Искусственный интеллект давно встроен в разведку, логистику и планирование. Все страны, особенно на фоне спецоперации на Украине, активно вводят ИИ в контуры управления дронами, всё той же разведкой и целеуказанием.

Крупнейшие аналитические центры прогоняют через нейросети стратегии и миллионы "боёв" в играх — для советов реальным военспецам.

Теперь ИИ подбирается к самой опасной границе — к ядерному командованию и управлению. И это уже не журналистский хайп.

Представители стратегического командования и ВВС США открыто говорят о необходимости "включать ИИ в контур" — просто как советчика, без права на залп.

И вот здесь технологическое превосходство перестаёт быть благом. Скорость, интеллект и адаптивность, которые в обычной войне дают преимущество, в ядерной логике превращаются в фактор невероятного, просто экзистенциального риска.

Главная угроза ИИ в ядерной сфере — не автономный пуск. Этого действительно никто не позволит. Настоящая беда — катастрофа скоростей, которую аналитики всё чаще называют Flash War. ИИ не заменяет человека — он стирает человека как субъекта решения.

Машина выдаёт анализ за секунды. Человеку нужно 10-15 минут, чтобы осмыслить масштаб, сопоставить контекст, допустить мысль об ошибке, попробовать связаться с противником по "горячей линии".

Раньше эти минуты были. Теперь есть гиперзвук, есть ИИ — их больше нет.

Возникает эффект "резиновой печати". Представьте, что мудрый ИИ, который поставили высокие начальники в погонах, показывает "вероятность атаки 99%, надо предотвратить своим ударом — "отмена" или "огонь"?". Согласие выглядит рациональным. Несогласие в духе "надо бы проверить" требует почти самоубийственной смелости.

Как это выглядит на практике, лучше всего показывает короткий фильм-симуляция "Artificial Escalation", сделанный Future of Life Institute.

Ролик начинается предельно знакомо. Создатель передовой ИИ-системы уверяет военных, что его "лучшая и самая быстрая" разработка — всего лишь помощник. Человек — всегда главный. Никакого "Скайнета", никакого автономного пуска. Система внедряется в контур принятия решений как инструмент анализа кризисов. На экранах аккуратный интерфейс, вероятности, таймеры, подсказки.

Дальше — ситуация, в которой "вроде бы атака Китая". А может, и нет. США повышают готовность. Китай видит это и повышает свою. ИИ воспринимает это как подтверждение "атака скоро" и предлагает повышать снова.

Китай усиливает разведку и высылает авиацию. США отвечают кибератаками и ПВО. Обе стороны раз за разом кликают "да" на советы ИИ, которые выдаются за секунды: "повысить", "приготовиться", "противодействовать".

Итог — сообщение "атака в ближайшие минуты, атаковать первым — "да" или "нет"?

Это не приказ. Это рекомендация. С дедлайном. Как бы вы поступили? Вот и они так же. Открываются ракетные шахты. Обе стороны боятся, что "те успеют нас уничтожить", а значит, "надо опередить".

Звучит фраза: "Господин президент, необходимо срочно эвакуироваться в защищённый бункер". Красивая музыка. Под неё Земля покрывается ядерными взрывами.

Всё предельно честно. В этом сценарии ИИ не принимает решение о пуске. Он лишь сжимает время до точки, где решение становится формальностью.

Офицер получает не догадку, а безупречный график, чистую логику и жёсткий таймер. Кошмар "безупречной лжи" — ошибка, которая не выглядит как ошибка и потому не может быть остановлена.

По сути, глобальная стабильность сегодня держится на трёх принципиально разных моделях замедления катастрофы.

  1. "Самолёты Судного дня" в США
  2. Система "Периметр" в России
  3. Мощнейшие боевые ИИ-полководцы в Китае

Американских "Самолётов Судного дня" боятся, считая "вестниками ядерного Апокалипсиса", но они скорее его замедлители. Одна из их задач — сохранить управление и подтвердить физическую реальность катастрофы, "немного подождать и увидеть". Если, конечно, аналитику этих летающих штабов однажды не решат полностью отдать ИИ, а такие идеи уже звучат.

Российская система "Периметр" и вовсе выглядит главным спасителем мира. Она не анализирует намерения, не прогнозирует будущее и не реагирует на сигналы раннего предупреждения. Она ждёт физического факта конца света — землетрясений от взрывов, повышения радиации, отсутствия связи, движения по дорогам, радио и т. д.

Километры скальной породы и полная изоляция делают систему нечувствительной к ядерной атаке, взлому, ИИ-галлюцинациям. Именно эта простота даёт Москве силы и право не торопиться.

КНР декларирует принцип "никогда не ударим (ядеркой) первыми", но не имеет ни аналога "Периметра", ни полноценных авиационных центров управления. В результате Китай использует ИИ как компенсатор уязвимости. В ИИ загружают "личности" военных гениев прошлого, строят сетецентрические контуры, сажают на алгоритмы боевое управление. И именно это делает Китай самым рискованным элементом в эпоху Flash War.

В эпоху гонки ИИ гарантом жизни на Земле неожиданно оказывается наш, русский, бункер в горе, бинарное реле и два офицера перед ним, как и положено по всем правилам ядерного управления.

Опять русские спасают мир. Прямо как в кино. Только не в голливудском.