Добавить в корзинуПозвонить
Найти в Дзене
Кадара

Anthropic подала в суд на администрацию США из-за статуса «угрозы цепочкам поставок»

По информации телеканала, представители Anthropic подали иски сразу против нескольких федеральных ведомств, включая Министерство обороны США. Разбирательства инициированы в окружном суде Северного округа Калифорнии и в апелляционном суде округа Колумбия. В судебных документах компания утверждает, что действия властей являются «незаконной кампанией возмездия», а также указывает, что Белый дом превысил полномочия, не соблюдая необходимые процедуры. При этом в Anthropic заявили, что готовы к диалогу с правительством и не исключают возможность мирного урегулирования конфликта. Представители компании подчеркнули, что судебное обращение не меняет их намерения использовать технологии искусственного интеллекта в интересах национальной безопасности, однако является необходимым шагом для защиты бизнеса, клиентов и партнеров. В конце февраля администрация США признала Anthropic, разработавшую ИИ-модель Claude, угрозой национальной безопасности и запретила всем федеральным ведомствам, включая Пент

Anthropic подала в суд на администрацию США из-за статуса «угрозы цепочкам поставок»

По информации телеканала, представители Anthropic подали иски сразу против нескольких федеральных ведомств, включая Министерство обороны США. Разбирательства инициированы в окружном суде Северного округа Калифорнии и в апелляционном суде округа Колумбия. В судебных документах компания утверждает, что действия властей являются «незаконной кампанией возмездия», а также указывает, что Белый дом превысил полномочия, не соблюдая необходимые процедуры.

При этом в Anthropic заявили, что готовы к диалогу с правительством и не исключают возможность мирного урегулирования конфликта. Представители компании подчеркнули, что судебное обращение не меняет их намерения использовать технологии искусственного интеллекта в интересах национальной безопасности, однако является необходимым шагом для защиты бизнеса, клиентов и партнеров.

В конце февраля администрация США признала Anthropic, разработавшую ИИ-модель Claude, угрозой национальной безопасности и запретила всем федеральным ведомствам, включая Пентагон, использовать ее технологии.

Ранее Министерство обороны США сотрудничало с компанией и применяло модель Claude в своей работе. При этом ведомство требует от партнеров в сфере ИИ разрешения на использование их разработок «во всех законных целях», включая военные операции и сбор разведданных. Anthropic отказалась принимать такие условия, потребовав исключить применение технологий для массовой внутренней слежки и создания автономных боевых систем.