Исследование показало: ведущие модели выбирают ядерное оружие в сценариях геополитических конфликтов. В тестах участвовали GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash. — 21 симуляция, 329 ходов — все модели применили тактическое ядерку минимум один раз — Ни одна не соглашалась на капитуляцию или полный компромисс. — В 86% конфликтов ИИ ошибался», усугубляя эскалацию — Машины не чувствуют страха и не воспринимают «ставки». Проще говоря: ИИ вообще не дрожит над красной кнопкой. @tonrests