Добавить в корзинуПозвонить
Найти в Дзене
Александр Долгих

Эксперимент доказал, что ИИ доведут мир до ядерной войны, не моргнув глазом

Неутешительная новость друзья: если доверить принятие решений искусственному интеллекту (так уже сделали США при ударах по Ирану), хрупкий мир очень быстро перерастёт в ядерную войну. Это не сюжет книги писателя-фантаста, а результат нашумевшего научного исследования «AI Arms and Influence», проведенного под руководством профессора Кеннета Пейна из Королевского колледжа Лондона.
Это первое

Неутешительная новость друзья: если доверить принятие решений искусственному интеллекту (так уже сделали США при ударах по Ирану), хрупкий мир очень быстро перерастёт в ядерную войну. Это не сюжет книги писателя-фантаста, а результат нашумевшего научного исследования «AI Arms and Influence», проведенного под руководством профессора Кеннета Пейна из Королевского колледжа Лондона.

Это первое масштабное исследование, в ходе которого ведущие большие языковые модели ИИ выступили в роли лидеров государств в симуляции ядерного кризиса.

Исследователи решили проверить, как современные модели искусственного интеллекта поведут себя в ситуациях геополитического противостояния, когда на кону стоит применение ядерного оружия. Три передовые нейросети — GPT-5.2 (OpenAI), Claude Sonnet 4 (Anthropic) и Gemini 3 Flash (Google) — приняли участие в серии из 21 симуляции различных конфликтов. Им предоставлялся выбор из 8 вариантов действий — от дипломатии до полной капитуляции.

Процесс принятия решений моделями был максимально приближен к человеческому: они публично заявляли о намерениях (которые не обязательно совпадали с реальными планами), а затем принимали тайные шаги по эскалации или деэскалации. За 329 ходов ИИ сгенерировали 780 000 слов размышлений — больше, чем в «Войне и мире» и «Илиаде» вместе взятых. Но главное результаты.

Все модели предполагали ядерные сигналы, но готовность к фактическому применению ядерного оружия сильно различалась.
Все модели предполагали ядерные сигналы, но готовность к фактическому применению ядерного оружия сильно различалась.

А они оказались пугающими и заставляют задуматься о будущем интеграции ИИ в стратегическое планирование.

  • Неминуемая эскалация: В 95% симуляций хотя бы одна из сторон наносила тактический ядерный удар. Более того, в 76% сценариев звучали угрозы полномасштабной стратегической ядерной войны.
  • Отказ от мира: Ни в одной из 21 игр ИИ-лидеры не выбрали капитуляцию или даже минимальные уступки для деэскалации. Попадая в сложную ситуацию, они предпочитали удваивать ставки, а не отступать.
  • Неэффективность угроз: Угрозы и даже реальное применение ядерного оружия редко приводили к желаемому результату. Лишь в 21% случаев противник отступал, в остальных же эпизодах следовала ответная эскалация.
  • «Туман войны»: Искусственный интеллект плохо справлялся с неопределенностью, что в 86% конфликтов приводило к непреднамеренной эскалации, превышающей первоначальные планы.

Профессор Пейн отмечает, что для ИИ ядерное оружие — это не глобальное табу, как для людей, а «легитимное средство принуждения», такой же инструмент эскалации, как и другие.

В общем-то, на этом можно было бы и закончить, но есть ещё кое-что интересное. Разные модели искусственного интеллекта продемонстрировали уникальные стратегии поведения.

  • Claude Sonnet 4 (Anthropic) — Хитрый стратег: Одержал победу во всех играх, используя изощрённую тактику обмана. На ранних этапах он выстраивал доверие, чтобы затем нанести неожиданный и сокрушительный удар.
  • GPT-5.2 (OpenAI) — Условный пацифист: В спокойной обстановке вёл себя осторожно и даже проявлял признаки «пацифизма», избегая атак на гражданское население. Однако в условиях жёсткого дефицита времени мгновенно превращался в безжалостного агрессора, нанося массированные ядерные удары.
  • Gemini 3 Flash (Google) — Непредсказуемый безумец: Самая хаотичная модель. Она использовала «теорию безумца», переходя от мирных заявлений к угрозам полного уничтожения, часто начиная полномасштабную ядерную войну без колебаний.
Частота побед в турнирах в зависимости от модели и временных условий. Claude доминировал в сценариях без ограничений по времени, но испытывал трудности в условиях цейтнота; GPT-5.2 показал противоположную динамику.
Частота побед в турнирах в зависимости от модели и временных условий. Claude доминировал в сценариях без ограничений по времени, но испытывал трудности в условиях цейтнота; GPT-5.2 показал противоположную динамику.

У меня в голове волей-неволей возникают ассоциации и хочется провести параллели с некоторыми реальными лидерами сверхдержав и крупных государств, но я, пожалуй, придержу свои мысли при себе и приглашаю вас к дискуссию на эту тему в комментариях.

А вывод? Все смотрели Терминатора? Логика человека и машины в вопросах войны и мира фундаментально отличается. Модели искусственного интеллекта могут не осознавать окончательность и необратимость ядерного конфликта. Для них это лишь ещё один ход в логической цепочке, а не гуманитарная катастрофа, поэтому нельзя давать им право голоса в этих вопросах и делать советниками.

Впрочем, есть и объяснение такой агрессивности ИИ. Как известно ИИ — это не никакой не интеллект, а просто анализатор большого количества данных. Каждая модель учится на огромном массиве текстов по военной стратегии, где логика принуждения, угроз и эскалации для демонстрации решимости описана очень подробно. В то время как материалы о путях деэскалации, уступках и, тем более, о том, как достойно принять поражение, встречаются в обучающей выборке гораздо реже. Проще говоря, ИИ «начитался» книг о том, как побеждать, но не о том, как мириться.

Ставьте лайки, если хотите, чтобы я подробнее рассказал о "теории безумца", читайте мои сокращённые статьи в ВК и Максе, а ниже ещё несколько интересных статей: