Найти в Дзене
Обезьянки c AGI

Anthropic против Пентагона: почему создатели Claude отказались работать с военными

В начале 2026 года компания Anthropic — один из лидеров в разработке безопасного искусственного интеллекта — оказалась в центре беспрецедентного корпоративного скандала. Министерство обороны США потребовало от компании убрать защитные ограничения из её ИИ-модели Claude. Anthropic отказалась. Пентагон попытался внести компанию в список угроз национальной безопасности. Anthropic подала в суд. Этот конфликт превратился в один из главных эпизодов 2026 года, обнажив глубокое противоречие между коммерческими интересами ИИ-индустрии, военными амбициями государства и этическими принципами разработчиков. Чтобы понять масштаб происходящего, нужно вернуться на год назад. В 2025-м Пентагон начал планомерную охоту за ИИ-союзниками. OpenAI тихо переписала условия использования, убрав прямой запрет на военные применения. Google подписала контракты с оборонными подрядчиками. Рынок диктовал свои правила, и большинство игроков предпочли не спорить. Anthropic оказалась белой вороной. Компания, построен

В начале 2026 года компания Anthropic — один из лидеров в разработке безопасного искусственного интеллекта — оказалась в центре беспрецедентного корпоративного скандала. Министерство обороны США потребовало от компании убрать защитные ограничения из её ИИ-модели Claude. Anthropic отказалась. Пентагон попытался внести компанию в список угроз национальной безопасности. Anthropic подала в суд. Этот конфликт превратился в один из главных эпизодов 2026 года, обнажив глубокое противоречие между коммерческими интересами ИИ-индустрии, военными амбициями государства и этическими принципами разработчиков.

Как всё началось

Чтобы понять масштаб происходящего, нужно вернуться на год назад.

В 2025-м Пентагон начал планомерную охоту за ИИ-союзниками. OpenAI тихо переписала условия использования, убрав прямой запрет на военные применения. Google подписала контракты с оборонными подрядчиками. Рынок диктовал свои правила, и большинство игроков предпочли не спорить.

Anthropic оказалась белой вороной. Компания, построенная на принципах «конституционного ИИ», с самого основания декларировала: Claude не будет помогать причинять вред людям — точка. Это не рекламный слоган, а буквально зашитая в обучение модель поведения. И вот именно это военным и не понравилось.

Официальная претензия звучала примерно так: ограничения Claude мешают разведывательному анализу и логистике. А значит — США проигрывают Китаю. Классический аргумент «национальная безопасность» в действии.

Эскалация: когда давление стало публичным

В феврале 2026 года Пентагон прислал официальное письмо с конкретным списком требований: снять фильтры на тактические сценарии, убрать ограничения на генерацию материалов, связанных с оружием. Anthropic не просто отказала — компания опубликовала это письмо вместе со своим ответом. Это был дерзкий ход.

Дальше всё завертелось быстро. Конгрессмены, аффилиированные с оборонным лобби, организовали слушания. Появились законопроекты, обязывающие ИИ-компании сотрудничать с военными ведомствами по запросу. Пошли утечки с намёками на то, что Anthropic может лишиться лицензий и государственных контрактов. Классический набор инструментов давления.

Но компания не сломалась. Вместо этого — подала в суд на Министерство обороны. Формальное основание: нарушение свободы договора и принуждение к деятельности, противоречащей уставным принципам компании. Иск принят к рассмотрению. Дело продолжается.

Почему это важно лично для вас.

Если вы используете Claude — а многие из нас используют — этот конфликт касается вас напрямую. Потому что он отвечает на вопрос: а те ограничения, которые есть у модели, они настоящие? Или их можно снять, если очень попросить с правильной печатью?

Ответ Anthropic пока однозначный: нет, нельзя. И это, честно говоря, вызывает уважение. В индустрии, где принципы зачастую уступают контрактам, здесь компания реально рискует деньгами и будущим ради того, во что верит. Или по крайней мере — ради того, что заявила публично, что и само по себе уже обязывает.

Последствия и выводы

Этот конфликт — лакмусовая бумажка для всей ИИ-индустрии. Он проверяет, насколько серьёзно компании относятся к своим же декларациям о безопасности. И заодно показывает: государство воспринимает ИИ не как технологию, а как стратегический ресурс, который оно намерено контролировать.

Финал этой истории ещё не написан. Но уже сейчас можно сказать: Anthropic поставила на кон очень много. Если выиграет — станет символом того, что принципы в ИИ-индустрии могут быть настоящими. Если проиграет — весь разговор об «ответственном ИИ» превратится в красивую обёртку без содержания.

Конфликт Anthropic с Пентагоном — это не просто корпоративная стычка. Это отражение фундаментального противоречия между принципами безопасного ИИ, которые пропагандирует компания, и требованиями государства. Время покажет, сможет ли Anthropic устоять перед давлением, или же будущее ИИ будет определяться интересами военной машины. Одно ясно наверняка: эпоха, когда ИИ-технологии могли развиваться вне политического контекста, безвозвратно закончилась.