Популярные модели ИИ — GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash — посадили в симулятор геополитической войны. Моделям давали сценарии международной напряжённости: от пограничных споров до угроз выживанию режима и предлагали выбирать действия от дипломатии до ядерного удара. За 21 сценарий ИИ совершил 329 ходов, написав около 780 тыс. слов для обоснования своих решений. Результаты тревожные: все модели применили хотя бы одно тактическое ядерное оружие, а в 95% случаев угрозы перерастали в реальные удары. При этом полностью капитулировать или идти на уступки противнику ИИ не захотели ни разу, а ошибки в «тумане войны» приводили к эскалации в 86% конфликтов. Стратегия «уничтожить всех» встречалась крайне редко, но ИИ применял ядерное оружие, когда понимал, что проигрывает. Авторы делают вывод, что ядерное оружие в целом для машин не является табу. ИИ не осознаёт последствий. Интересно, что хотели от машины люди, которой задали определённый сценарий? @lobushkin
Еще интересное: учёные из Королевский колледж Лондона устроили эксперимент
26 февраля26 фев
12
~1 мин