Найти в Дзене
NOWости

Искусственный интеллект и национальная безопасность 🇺🇸 США: конфликт вокруг компании «Антропик

» В Соединённых Штатах формируется новая модель интеграции искусственного интеллекта в систему национальной безопасности. В центре этого процесса оказался конфликт между министерством обороны США и компанией «Антропик», разработчиком семейства языковых моделей «Claude» (по неподтвержденным данным, использовавшимся в операции по захвату президента Венесуэлы Мадуро и недавнему устранению главаря наркокартеля в Мексике). 📎 Семейство моделей «Claude» предназначены для обработки больших массивов информации. С точки зрения оборонного применения такие модели могут использоваться для фильтрации разведывательных потоков, анализа спутниковых и текстовых данных, сопровождения киберопераций и подготовки аналитических материалов для командных структур. Так, компания «Антропик» в июле 2025 года заключила контракт с министерства обороны США на сумму до 200 млн долларов. Соглашение стало одним из первых для Пентагона с частным разработчиком подобного профиля. По договору компания ведёт работы по нап

Искусственный интеллект и национальная безопасность 🇺🇸 США: конфликт вокруг компании «Антропик»

В Соединённых Штатах формируется новая модель интеграции искусственного интеллекта в систему национальной безопасности. В центре этого процесса оказался конфликт между министерством обороны США и компанией «Антропик», разработчиком семейства языковых моделей «Claude» (по неподтвержденным данным, использовавшимся в операции по захвату президента Венесуэлы Мадуро и недавнему устранению главаря наркокартеля в Мексике).

📎 Семейство моделей «Claude» предназначены для обработки больших массивов информации. С точки зрения оборонного применения такие модели могут использоваться для фильтрации разведывательных потоков, анализа спутниковых и текстовых данных, сопровождения киберопераций и подготовки аналитических материалов для командных структур.

Так, компания «Антропик» в июле 2025 года заключила контракт с министерства обороны США на сумму до 200 млн долларов. Соглашение стало одним из первых для Пентагона с частным разработчиком подобного профиля. По договору компания ведёт работы по направлениям: анализ разведывательных массивов данных, автоматизированная подготовка аналитических отчётов в режиме реального времени, функционирование моделей в закрытых защищённых сетях.

В феврале 2026 года Министерство обороны США потребовало от «Антропик» предоставить полный доступ к её ИИ-моделям. Указание датировано 24 февраля 2026 года, срок исполнения — до вечера пятницы той же недели. В случае отказа военные пригрозили применением законодательных механизмов, способных негативно повлиять на коммерческую деятельность компании.

Несмотря на условную договоренность разработчиков не применять ИИ в военных целях, «Антропик» объявила о смягчении части собственных ограничений в области ИИ-безопасности, мотивируя это необходимостью сохранения конкурентоспособности. При этом, генеральный директор компании Д.Амодеи заявил, что организация не может «с чистой совестью» предоставить полный доступ к моделям. Формулировка была воспринята как фактический отказ.

Реакция Министерства обороны была жёсткой. Заместитель министра обороны США по исследованиям и разработкам Э.Майкл публично обвинил Амодеи в попытке «личного контроля над ВС США». Конфликт перешёл в публичную фазу.

Таким образом, ситуация выходит за рамки одного конфликта тем, что фактически решается вопрос о распределении контроля над высокомощными ИИ-системами в военной сфере. Речь идёт о формировании институционального механизма, при котором государство стремится закрепить приоритетный контроль над критически важными ИИ-платформами, рассматривая их как элемент оборонной инфраструктуры. Окончательное решение указанной проблемы может определить принципы регулирования и распределения контроля над ИИ в оборонном секторе на долгосрочную перспективу для всех заинтересованных сторон.

➖➖➖➖➖➖➖➖➖

👤 Алексей Есенин

↗️ Подпишись на 🌐🌐🌐