Компания Anthropic, создатель одной из самых передовых больших языковых моделей Claude, впала в немилость у Дональда Трампа. Он приказал госорганизациям прекратить использование LLM, а компанию считать угрозой национальной безопасности — точнее она получила статус «supply chain risk». И опять виновата война в Иране. Anthropic в 2024 году заключила договор с компанией Palantir, специализирующейся на киберразведке, а в 2025 подписала контракт на 200 млн долл. с Министерством обороны США. Казалось, что компания охотно предлагает свои продукты в сферах, где многие бигтехи думают, насколько морально такое сотрудничество. Но при заключении договоров на использование Claude, разработчик юридически закреплял запрет на применение нейросети для слежки за гражданами США и на управление автономным оружием (не требующим участия человека для выбора цели и наведения). Первое условие не устраивало Palantir, а второе невозможно было выполнить во время компании США в Иране, так как Claude полноценно ис