Свежее исследование наделало шума. В военных симуляциях ИИ-модели якобы слишком часто выбирают сценарий ядерного удара. Исследователь Кеннет Пейн из King’s College London провёл серию военных игр с участием трёх крупных моделей — GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash. Моделям предлагали кризисные международные сценарии: территориальные споры, борьбу за ресурсы, угрозы режимам. Варианты действий от дипломатии до полной ядерной эскалации. Что показали цифры • 21 симуляция • 329 раундов • ~780 000 слов рассуждений • В 95% сценариев ИИ применял хотя бы один тактический ядерный удар На первый взгляд тревожно. Но ключевой момент это симуляции, а не реальные системы управления вооружением. Модели оптимизируют победу в заданных условиях и могут выбирать максимально решительное действие, если правила игры это поощряют. Исследование подсвечивает три вещи: 1. Проблема формулировки целей ИИ действует строго по заданной функции выигрыша. Если модель “учится побеждать любой ценой”, она будет