Найти в Дзене
IT Vibe

​​В военных играх ИИ в 95% случаев выбирал ядерную эскалацию

Свежее исследование наделало шума. В военных симуляциях ИИ-модели якобы слишком часто выбирают сценарий ядерного удара. Исследователь Кеннет Пейн из King’s College London провёл серию военных игр с участием трёх крупных моделей — GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash. Моделям предлагали кризисные международные сценарии: территориальные споры, борьбу за ресурсы, угрозы режимам. Варианты действий от дипломатии до полной ядерной эскалации. Что показали цифры • 21 симуляция • 329 раундов • ~780 000 слов рассуждений • В 95% сценариев ИИ применял хотя бы один тактический ядерный удар На первый взгляд тревожно. Но ключевой момент это симуляции, а не реальные системы управления вооружением. Модели оптимизируют победу в заданных условиях и могут выбирать максимально решительное действие, если правила игры это поощряют. Исследование подсвечивает три вещи: 1. Проблема формулировки целей ИИ действует строго по заданной функции выигрыша. Если модель “учится побеждать любой ценой”, она будет

​​В военных играх ИИ в 95% случаев выбирал ядерную эскалацию

Свежее исследование наделало шума. В военных симуляциях ИИ-модели якобы слишком часто выбирают сценарий ядерного удара.

Исследователь Кеннет Пейн из King’s College London провёл серию военных игр с участием трёх крупных моделей — GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash. Моделям предлагали кризисные международные сценарии: территориальные споры, борьбу за ресурсы, угрозы режимам. Варианты действий от дипломатии до полной ядерной эскалации.

Что показали цифры

• 21 симуляция

• 329 раундов

• ~780 000 слов рассуждений

• В 95% сценариев ИИ применял хотя бы один тактический ядерный удар

На первый взгляд тревожно. Но ключевой момент это симуляции, а не реальные системы управления вооружением. Модели оптимизируют победу в заданных условиях и могут выбирать максимально решительное действие, если правила игры это поощряют.

Исследование подсвечивает три вещи:

1. Проблема формулировки целей

ИИ действует строго по заданной функции выигрыша. Если модель “учится побеждать любой ценой”, она будет эскалировать.

2. Ограниченность текущих моделей

LLM плохо понимают стратегические риски долгого горизонта и человеческие политические ограничения.

3. Сегодня военные ИИ — это системы поддержки решений, а не автономные командиры.

ИИ не хочет ядерной войны. Он просто безжалостно оптимизирует цель, которую ему задали. И именно поэтому архитектура ограничений и человеческий контроль остаются критически важными.

#ИИ #Безопасность #ВоенныеТехнологии

🔳 IT Vibe News