Искусственный интеллект начал играть в войну по-настоящему. Большим языковым моделям уже доверяют анализ, прогнозы и планирование во время ведения вооруженных конфликтов и спецопераций. Но власти США захотели от алгоритмов такого, что ужаснулись даже сами разработчики. Так начался один из громких скандалов: Anthropic против Пентагона. Anthropic — это компания, основанная бывшими сотрудниками OpenAI, которые ушли оттуда из-за разногласий по вопросам безопасности нейросетей. Anthropic давно работает с американским военным контуром: ее модели используют в разведке, кибероперациях и оперативном планировании. Компания предоставила специальные версии для задач нацбезопасности. А Claude стала одной из первых передовых ИИ-систем, допущенных в секретные сети США. Но между разработчиками ИИ и американскими властями случился конфликт. Anthropic отказалась снимать два ограничения. Первое — на массовую слежку за гражданами США. Второе — на полностью автономное оружие, которое само, без участия чело