Добавить в корзинуПозвонить
Найти в Дзене
Умен и богат

Один из крупнейших в мире ИИ-стартапов — Anthropic — поссорился с Пентагоном.Компания отказалась давать военным полный доступ к своей модели

Конфликт руководства Anthropic с Пентагоном продолжается больше полугода. Ведомство требует полного доступа к ИИ-моделям Claude С американскими военными структурами Anthropic сотрудничает уже почти полтора года. В ноябре 2024 года она объявила о партнерстве с разработчиком программного обеспечения Palantir и Amazon Web Services. В рамках этого соглашения ИИ-компания согласилась предоставить американским военным доступ к Claude, чтобы улучшить анализ разведданных и процесс принятия решений. Сотрудничество с Palantir позволило Anthropic стать первой компанией, чья модель искусственного интеллекта использовалась при решении засекреченных задач, подчеркивают Associated Press и Financial Times. В середине 2025 года Министерство обороны США заключило несколько контрактов на разработку ИИ с разными компаниями. Среди них были Google, OpenAI, xAI и все та же Anthropic. Сообщалось, что в рамках этих контрактов каждая из компаний получит до 200 миллионов долларов. Источники The Wall Street Journa
Оглавление

Claude. Теперь она под угрозой исчезновения

Конфликт руководства Anthropic с Пентагоном продолжается больше полугода. Ведомство требует полного доступа к ИИ-моделям Claude

С американскими военными структурами Anthropic сотрудничает уже почти полтора года. В ноябре 2024 года она объявила о партнерстве с разработчиком программного обеспечения Palantir и Amazon Web Services. В рамках этого соглашения ИИ-компания согласилась предоставить американским военным доступ к Claude, чтобы улучшить анализ разведданных и процесс принятия решений.

Сотрудничество с Palantir позволило Anthropic стать первой компанией, чья модель искусственного интеллекта использовалась при решении засекреченных задач, подчеркивают Associated Press и Financial Times.

В середине 2025 года Министерство обороны США заключило несколько контрактов на разработку ИИ с разными компаниями. Среди них были Google, OpenAI, xAI и все та же Anthropic. Сообщалось, что в рамках этих контрактов каждая из компаний получит до 200 миллионов долларов. Источники The Wall Street Journal в январе 2026-го рассказывали, что почти сразу после заключения контракта между сторонами возникла напряженность. Anthropic настаивала на безопасном применении своей ИИ-системы и выступала против того, чтобы Claude использовали в военных операциях, подразумевающих человеческие жертвы.

Кроме того, компания запретила использовать искусственный интеллект для любых активностей, связанных с наблюдением внутри США. Это ограничило применение Claude в операциях Иммиграционной и таможенной полиции США, ФБР и других правоохранительных ведомств. Уже тогда источники WSJ допускали расторжение контракта на 200 миллионов.

В середине февраля источники газеты сообщили, что Claude использовали во время операции по захвату президента Венесуэлы Николаса Мадуро в начале января 2026 года. Тогда американская армия нанесла серию авиаударов по объектам в Каракасе. Самого Мадуро и его жену Силию Флорес вывезли из страны и доставили в США, где предъявили обвинения (в том числе в «наркотерроризме»). По разным оценкам, в ходе операции погибли от 75 до 100 человек.

Как именно использовался Claude во время захвата Мадуро — не уточняется. Представитель Anthropic заявил WSJ, что не может комментировать применение любых ИИ-моделей в подобных операциях. «Наша страна требует, чтобы наши партнеры были готовы помогать нашим военным побеждать в любом бою», — подчеркнул в свою очередь пресс-секретарь Пентагона Шон Парнелл. Он также добавил, что Пентагон решил пересмотреть свои отношения с Anthropic.

Во вторник, 24 февраля, журналисты Axios узнали, что глава Пентагона Пит Хегсет поставил перед руководством компании ультиматум. От Anthropic потребовали снять все ограничения и предоставить военным беспрепятственный доступ к Claude. В противном случае Хегсет угрожал либо разорвать все связи с компанией, либо применить Закон об оборонном производстве. Он позволяет принудительно заставить компанию адаптировать ИИ-модель к потребностям военных.

Свое решение Anthropic должна была озвучить до вечера пятницы. 26 февраля Дарио Амодеи заявил, что компания не может удовлетворить требования Пентагона. Он подчеркнул, что военные требуют разрешить использование Claude для массового наблюдения внутри страны и для полностью автономного оружия. По словам Амодеи, эти запросы противоречат условиям оригинального контракта.

Источник The Atlantic при этом утверждает, что Anthropic была готова пойти на уступки через некоторое время. Кроме того, компания не утверждала, что автономное оружие, которое может выбирать цели без участия человека, не должно существовать (на это указывают и слова Амодеи). Однако на текущем этапе развития ИИ Anthropic не может гарантировать безопасность как для мирных жителей, так и для самих американских военных.

На следующий день Дональд Трамп назвал разработчиков Claude «левыми придурками». Президент заявил, что поручил всем федеральным агентствам прекратить использование технологий Anthropic. Для Пентагона и еще нескольких неназванных ведомств Трамп установил шестимесячный переходный период, во время которого они должны постепенно исключить разработки компании из внутренних процессов.

Буквально через несколько часов после поста Дональда Трампа американские военные использовали технологии Anthropic для нанесения удара по Ирану. Это подтверждают источники сразу нескольких новостных изданий: Reuters, WSJ и Axios. При этом ни одному из них не удалось выяснить, какие именно ИИ-инструменты и для каких конкретно задач задействовали американские военные.

Anthropic уже нашли замену — ею стала OpenAI. Хотя ее глава Сэм Альтман не в восторге от поведения американских властей

В тот же день, когда Трамп объявил о прекращении сотрудничества с Anthropic, глава OpenAI Сэм Альтман объявил о заключении соглашения с Пентагоном о подключении моделей компании к засекреченной сети ведомства. Фактически это означает, что продукты его компании заменят Claude. Уже 2 марта сразу несколько американских ведомств перешли с Claude на модели OpenAI, пишет Reuters. Об этом, в частности, заявили представители Госдепартамента, Минфина и Министерства здравоохранения и социальных служб США.

Альтман подчеркнул, что в соглашении есть пункты, запрещающие использовать ИИ-системы для наблюдения внутри страны, а также сохраняющие за человеком ответственность за применение автономных систем вооружения. В отдельном твите глава OpenAI назвал произошедшее с Anthropic «крайне пугающим прецедентом» и возложил большую часть ответственности за разрыв соглашения на правительство.

Альтман также предположил, что конкуренты, вероятно, слишком сосредоточились на конкретных запретах и хотели больше контроля. Текущие формулировки соглашения OpenAI с Пентагоном его полностью устраивают.

Судьба 200-миллионного контракта Пентагона с Anthropic пока остается неясной. Однако у разрыва отношений между сторонами уже есть серьезные последствия. Ранее Пит Хегсет угрожал объявить компанию «угрозой для цепочки поставок». Эти слова нанесли определенный ущерб Anthropic, пишет TechCrunch со ссылкой на бывшего чиновника Дина Болла, работавшего в администрации Трампа.

По мнению Болла, компания может лишиться ключевых партнеров, из-за чего фактически окажется под угрозой исчезновения. Даже если Хегсет не выполнит эту угрозу или решение впоследствии будет отменено, процесс разбирательства может затянуться на длительное время. Учитывая стремительное развитие отрасли, это уничтожит Anthropic.

При этом компания сама загнала себя в эту ловушку, считает ученый и профессор Массачусетского технологического института Макс Тегмарк. В том числе потому, что вместе с другими лидерами в сфере искусственного интеллекта активно сопротивлялась регулированию отрасли. В результате разработчики ИИ оказались в ситуации, когда не существует никаких правил о том, где и как могут использоваться их системы. Фактически они никак не защищены законом от требований, аналогичных ультиматуму Пентагона.

Представители Anthropic уже заявили, что будут оспаривать возможное решение американских властей в суде. В частности, они собираются настаивать, что признание компании «угрозой для цепочки поставок» касается только контрактов с Пентагоном — но никак не соглашений с другими клиентами, в том числе в военной сфере. При этом официального уведомления о присвоении нового статуса Anthropic к началу недели так и не получила.

Обычные пользователи, в свою очередь, принципиальность компании оценили. На следующий день после того, как Дарио Амодеи отказался идти на уступки Пентагону, мобильное приложение Claude возглавило чарты американского App Store и удерживает первую строчку на момент публикации этого текста. В топе оно обошло ChatGPT, который находился там долгое время.

По данным аналитической компании Sensor Tower, количество установок Claude в США 28 февраля выросло на 51%, если сравнивать с предыдущим днем. А прирост удалений ChatGPT при этом подскочил в субботу до 295%, хотя в среднем этот показатель за последний месяц держался на отметке 9%. Схожая картина и в Великобритании, отмечает The Guardian. Причем Claude стремительно набирает популярность и в Google Play в обеих странах.

Однако это вряд ли поможет компании. На текущий момент Anthropic — один из крупнейших ИИ-стартапов в мире с оценкой в 380 миллиардов долларов. По этому показателю компания уступает только OpenAI. И обе они на текущем этапе очень сильно зависят не от количества пользователей, а в первую очередь от внешних инвестиций и партнеров. И, как мы писали выше, именно с последними у Anthropic могут начаться серьезные проблемы.