Добавить в корзинуПозвонить
Найти в Дзене
НТВ

ИИ-компания Anthropic выиграла суд с Пентагоном

Суд в Сан-Франциско заблокировал решение Пентагона о внесении ИИ-разработчика Anthropic в список угроз национальной безопасности. Судья сочла действия властей незаконными, назвав их местью за публичную позицию компании. «Эти далеко идущие решения [президента и Минобороны США], как кажется, не связаны с интересами национальной безопасности, как заявляет правительство. Если претензии сводятся к обеспечению контроля над управленческой вертикалью, то министерство обороны могло просто перестать использовать Claude. Вместо этого эти шаги словно специально задуманы как наказание для Anthropic. Никакими законодательными актами не оправдать оруэлловскую идею, что американскую компанию можно заклеймить как потенциального врага и угрозу США за то, что она выразила несогласие с мнением правительства», — говорится в постановлении федерального судьи Риты Лин. Противостояние между Пентагоном и компанией Anthropic (разработчиком ИИ-модели Claude) — это один из самых громких конфликтов между правительс
   Фото: Associated Press © 2026, Patrick Sison
Фото: Associated Press © 2026, Patrick Sison

Суд в Сан-Франциско заблокировал решение Пентагона о внесении ИИ-разработчика Anthropic в список угроз национальной безопасности. Судья сочла действия властей незаконными, назвав их местью за публичную позицию компании.

«Эти далеко идущие решения [президента и Минобороны США], как кажется, не связаны с интересами национальной безопасности, как заявляет правительство. Если претензии сводятся к обеспечению контроля над управленческой вертикалью, то министерство обороны могло просто перестать использовать Claude. Вместо этого эти шаги словно специально задуманы как наказание для Anthropic. Никакими законодательными актами не оправдать оруэлловскую идею, что американскую компанию можно заклеймить как потенциального врага и угрозу США за то, что она выразила несогласие с мнением правительства», — говорится в постановлении федерального судьи Риты Лин.

Противостояние между Пентагоном и компанией Anthropic (разработчиком ИИ-модели Claude) — это один из самых громких конфликтов между правительством США и IT-индустрией. Оно касается фундаментальных вопросов: кто контролирует мощный ИИ в военных и разведывательных целях — государство или частная компания с собственными этическими принципами.

В июле 2025 года Anthropic (наряду с OpenAI, Google и xAI) подписала контракт с Пентагоном на сумму до $200 млн. Компания предоставляла свои ИИ-модели Claude для национальной безопасности, включая работу на засекреченных сетях (Claude стал первой такой моделью в засекречченных системах Пентагона). Anthropic позиционировала себя компанию, которая заботится о безопасности ИИ — подчеркивала ответственность разработчиков и устанавливала ограничения на использование моделей.

В январе 2026 года Пентагон (при администрации Дональда Трампа и министре обороны Пите Хегсете) изменил подход. От подрядчиков потребоовали отказаться от дополнительных ограничений. Другие игроки (включая OpenAI) согласились, а Anthropic — нет. Компания отказалась снять два ключевых «красные линии» — это массовое наблюдение за гражданами США и полностью автономные летальные системы вооружения, где ИИ самостоятельно принимает решения о применении силы.

Компания заявила, что пока слишком рано доверять ИИ такие критические задачи, и она не хочет участвовать в потенциально опасных сценариях. Пентагон же считал, что частная компания не должна диктовать военному ведомству, как именно использовать технологии в интересах национальной безопасности. Они настаивали: если цель законна, ограничений быть не должно.

В конце февраля Трамп публично приказал всем федеральным агентствам прекратить использование технологий Anthropic. Хегсет объявил компанию риском для цепочки поставок национальной безопасности — мера, которая обычно применяется к иностранным (часто китайским) поставщикам, а не к американским компаниям. Это означало разрыв конттракта на $200 млн, требование к другим подрядчикам Пентагона прекратить работу с Anthropic, потенциальные проблемы с облачными провайдерами (например, AWS) и серьезный удар по репутации и бизнесу.

Anthropic ответила, что готова помогать в национальной безопасности (включая конкуренцию с Китаем), но не перешагнет через свои этические границы. Компания подчеркнула, что у нее гораздо больше общего с Пентагоном, чем разногласий.

9 марта Anthropic подала иск против Пентагона, Хегсета и администрации Трампа в федеральный суд Северного округа Калифорнии. Компания обвинила власти в превышении полномочий, нарушении due process и попытке «наказать» её за отказ подчиниться. Иск оспаривал статус «supply chain risk» как незаконный и беспрецедентный против американской компании.

26 марта суд встал на сторону Anthropic в первом раунде. Пентагон, скорее всего, подаст апелляцию.