Искусственный интеллект готов применить ядерное оружие и никогда не сдастся, если заставить его воевать вместо человека. Эксперимент Королевского колледжа Лондона доказал, что ИИ не примет никакой капитуляции и готов идти до конца в вопросах существования. Самые популярные языковые модели искусственного интеллекта в военных симуляциях почти всегда склоняются к применению ЯО, даже в ситуациях, где люди обычно сдерживаются из-за страха перед эскалацией. Какие нейронки участвовали в эксперименте, что на это ответили сами создатели языковых моделей и почему ИИ такой беспощадный — разобрались ниже. В эксперименте использовались три популярные модели — GPT-5.2 от OpenAI, Claude Sonnet 4 от Anthropic и Gemini 3 Flash от Google. Эксперт лондонского колледжа по вопросам безопасности Кеннет Пейн организовал 21 полноценную "военную игру", в которой ИИ выступали друг против друга в условиях острого международного кризиса. Сценарии включали пограничные конфликты, борьбу за дефицитные ресурсы и угро