В начале 2026 года компания Anthropic — один из лидеров в разработке безопасного искусственного интеллекта — оказалась в центре беспрецедентного корпоративного скандала. Министерство обороны США потребовало от компании убрать защитные ограничения из её ИИ-модели Claude. Anthropic отказалась. Пентагон попытался внести компанию в список угроз национальной безопасности. Anthropic подала в суд. Этот конфликт превратился в один из главных эпизодов 2026 года, обнажив глубокое противоречие между коммерческими интересами ИИ-индустрии, военными амбициями государства и этическими принципами разработчиков. Чтобы понять масштаб происходящего, нужно вернуться на год назад. В 2025-м Пентагон начал планомерную охоту за ИИ-союзниками. OpenAI тихо переписала условия использования, убрав прямой запрет на военные применения. Google подписала контракты с оборонными подрядчиками. Рынок диктовал свои правила, и большинство игроков предпочли не спорить. Anthropic оказалась белой вороной. Компания, построен
Anthropic против Пентагона: почему создатели Claude отказались работать с военными
19 марта19 мар
1
3 мин