Найти в Дзене
DigiNews

Anthropic одержала крупную юридическую победу над Пентагоном

Федеральный судья временно заблокировал Пентагону внесение Anthropic в черный список, постановив, что это является незаконным возмездием в соответствии с Первой поправкой. Читайте подробнее... — neowin.net Федеральный судья временно запретил Пентагону и администрации Трампа вносить Anthropic в черный список. Министерство обороны присвоило компании, занимающейся разработкой ИИ, статус «риска для цепочки поставок», а президент Трамп распорядился, чтобы все федеральные агентства прекратили использование Claude. Судья Рита Ф. Лин из Северного округа Калифорнии в своем постановлении на 43 страницах встала на сторону Anthropic, отметив, что действия Министерства обороны носили характер возмездия. Лин охарактеризовала подход правительства как «классическое незаконное возмездие в соответствии с Первой поправкой», добавив, что нет никаких законодательных оснований для «оруэлловского представления о том, что американскую компанию можно заклеймить как потенциального противника и саботажника США з

Федеральный судья временно заблокировал Пентагону внесение Anthropic в черный список, постановив, что это является незаконным возмездием в соответствии с Первой поправкой. Читайте подробнее... — neowin.net

Федеральный судья временно запретил Пентагону и администрации Трампа вносить Anthropic в черный список. Министерство обороны присвоило компании, занимающейся разработкой ИИ, статус «риска для цепочки поставок», а президент Трамп распорядился, чтобы все федеральные агентства прекратили использование Claude.

Судья Рита Ф. Лин из Северного округа Калифорнии в своем постановлении на 43 страницах встала на сторону Anthropic, отметив, что действия Министерства обороны носили характер возмездия. Лин охарактеризовала подход правительства как «классическое незаконное возмездие в соответствии с Первой поправкой», добавив, что нет никаких законодательных оснований для «оруэлловского представления о том, что американскую компанию можно заклеймить как потенциального противника и саботажника США за выражение несогласия с правительством».

Все началось с расторжения контракта Пентагона с Anthropic на сумму 200 миллионов долларов, подписанного в июле прошлого года. Anthropic отказалась предоставить военным неограниченный доступ к своим моделям и настояла на строгих границах использования, чтобы предотвратить развертывание Claude для полностью автономного летального оружия или массовой слежки.

В ответ на это министр обороны Пит Хегсет < объявил Anthropic «риском для цепочки поставок» — ярлык, традиционно зарезервированный для известных террористических организаций. Президент Трамп еще больше обострил конфликт, выступив в Truth Social с заявлением, что Anthropic — это компания «радикальных левых», и отдав распоряжение о поэтапном отказе от ее инструмента в федеральных ведомствах.

OpenAI быстро воспользовалась ситуацией: всего через несколько часов после ухода Anthropic компания < заключила выгодную сделку с Пентагоном о развертывании своих моделей в закрытых сетях для «всех законных целей».

При этом Claude уже глубоко интегрирован в оборонные операции, предположительно, через систему Palantir Maven Smart System, которая обрабатывает разведданные и выбирает цели в ходе текущих операций на Ближнем Востоке, включая операцию Epic Fury в Иране.

Временный судебный запрет дает Anthropic столь необходимое передышку, пока компания, занимающаяся ИИ, преодолевает юридические препятствия. Однако у администрации есть семь дней на подачу апелляции, и основная юридическая битва еще далека от завершения.

via < TechCrunch

Всегда имейте в виду, что редакции могут придерживаться предвзятых взглядов в освещении новостей.

Автор – Karthik Mudaliar

Оригинал статьи