Конфликт между компанией Anthropic и Пентагоном достиг кульминации в феврале 2026 года, когда стороны не смогли договориться о условиях использования ИИ-технологий в военных целях. Anthropic настаивает на том, что их ИИ не должен использоваться для массового наблюдения за гражданами США или для управления автономным оружием. Пентагон утверждает, что им необходим доступ к моделям Anthropic для «законного использования». Ситуация обострилась после того, как сотрудники Google и OpenAI подписали открытое письмо с призывом к уважению принципов безопасности, заявленных CEO Anthropic Дарио Амодеем. В результате этого конфликта Пентагон планировал ввести ограничения на использование инструментов Anthropic, что угрожает контрактам компании на сумму $380 миллиардов. Неожиданно для всех OpenAI объявила о достигнутом соглашении с Пентагоном на использование своих моделей в секретных операциях. Это вызвало бурную реакцию в сообществе: количество отказов от использования ChatGPT возросло на 295% пос
Anthropic и Пентагон не смогли прийти к соглашению о сотрудничестве
13 марта13 мар
1 мин