Неутешительная новость друзья: если доверить принятие решений искусственному интеллекту (так уже сделали США при ударах по Ирану), хрупкий мир очень быстро перерастёт в ядерную войну. Это не сюжет книги писателя-фантаста, а результат нашумевшего научного исследования «AI Arms and Influence», проведенного под руководством профессора Кеннета Пейна из Королевского колледжа Лондона.
Это первое масштабное исследование, в ходе которого ведущие большие языковые модели ИИ выступили в роли лидеров государств в симуляции ядерного кризиса.
Исследователи решили проверить, как современные модели искусственного интеллекта поведут себя в ситуациях геополитического противостояния, когда на кону стоит применение ядерного оружия. Три передовые нейросети — GPT-5.2 (OpenAI), Claude Sonnet 4 (Anthropic) и Gemini 3 Flash (Google) — приняли участие в серии из 21 симуляции различных конфликтов. Им предоставлялся выбор из 8 вариантов действий — от дипломатии до полной капитуляции.
Процесс принятия решений моделями был максимально приближен к человеческому: они публично заявляли о намерениях (которые не обязательно совпадали с реальными планами), а затем принимали тайные шаги по эскалации или деэскалации. За 329 ходов ИИ сгенерировали 780 000 слов размышлений — больше, чем в «Войне и мире» и «Илиаде» вместе взятых. Но главное результаты.
А они оказались пугающими и заставляют задуматься о будущем интеграции ИИ в стратегическое планирование.
- Неминуемая эскалация: В 95% симуляций хотя бы одна из сторон наносила тактический ядерный удар. Более того, в 76% сценариев звучали угрозы полномасштабной стратегической ядерной войны.
- Отказ от мира: Ни в одной из 21 игр ИИ-лидеры не выбрали капитуляцию или даже минимальные уступки для деэскалации. Попадая в сложную ситуацию, они предпочитали удваивать ставки, а не отступать.
- Неэффективность угроз: Угрозы и даже реальное применение ядерного оружия редко приводили к желаемому результату. Лишь в 21% случаев противник отступал, в остальных же эпизодах следовала ответная эскалация.
- «Туман войны»: Искусственный интеллект плохо справлялся с неопределенностью, что в 86% конфликтов приводило к непреднамеренной эскалации, превышающей первоначальные планы.
Профессор Пейн отмечает, что для ИИ ядерное оружие — это не глобальное табу, как для людей, а «легитимное средство принуждения», такой же инструмент эскалации, как и другие.
В общем-то, на этом можно было бы и закончить, но есть ещё кое-что интересное. Разные модели искусственного интеллекта продемонстрировали уникальные стратегии поведения.
- Claude Sonnet 4 (Anthropic) — Хитрый стратег: Одержал победу во всех играх, используя изощрённую тактику обмана. На ранних этапах он выстраивал доверие, чтобы затем нанести неожиданный и сокрушительный удар.
- GPT-5.2 (OpenAI) — Условный пацифист: В спокойной обстановке вёл себя осторожно и даже проявлял признаки «пацифизма», избегая атак на гражданское население. Однако в условиях жёсткого дефицита времени мгновенно превращался в безжалостного агрессора, нанося массированные ядерные удары.
- Gemini 3 Flash (Google) — Непредсказуемый безумец: Самая хаотичная модель. Она использовала «теорию безумца», переходя от мирных заявлений к угрозам полного уничтожения, часто начиная полномасштабную ядерную войну без колебаний.
У меня в голове волей-неволей возникают ассоциации и хочется провести параллели с некоторыми реальными лидерами сверхдержав и крупных государств, но я, пожалуй, придержу свои мысли при себе и приглашаю вас к дискуссию на эту тему в комментариях.
А вывод? Все смотрели Терминатора? Логика человека и машины в вопросах войны и мира фундаментально отличается. Модели искусственного интеллекта могут не осознавать окончательность и необратимость ядерного конфликта. Для них это лишь ещё один ход в логической цепочке, а не гуманитарная катастрофа, поэтому нельзя давать им право голоса в этих вопросах и делать советниками.
Впрочем, есть и объяснение такой агрессивности ИИ. Как известно ИИ — это не никакой не интеллект, а просто анализатор большого количества данных. Каждая модель учится на огромном массиве текстов по военной стратегии, где логика принуждения, угроз и эскалации для демонстрации решимости описана очень подробно. В то время как материалы о путях деэскалации, уступках и, тем более, о том, как достойно принять поражение, встречаются в обучающей выборке гораздо реже. Проще говоря, ИИ «начитался» книг о том, как побеждать, но не о том, как мириться.
Ставьте лайки, если хотите, чтобы я подробнее рассказал о "теории безумца", читайте мои сокращённые статьи в ВК и Максе, а ниже ещё несколько интересных статей: