Найти в Дзене

Красная линия Claude: когда этика ИИ важнее Пентагона

24 февраля 2026 года в кабинетах Пентагона прозвучало слово «ультиматум». Министр обороны Пит Хегсет дал главе Anthropic Дарио Амодеи срок до пятницы. Условие жесткое: либо Claude сбрасывает этические «ошейники», либо компания вылетает из оборонного заказа на 200 миллионов долларов. Это не просто спор о деньгах. Anthropic рискует попасть в черный список как «угроза цепочке поставок». Обычно такую метку получают иностранные шпионы или враждебные корпорации. Впервые в истории американская государственная машина разворачивается против своего же технологического лидера из-за его нежелания участвовать в создании автономного оружия. Технически конфликт зашит в саму структуру Claude. Anthropic называет это guardrails — программные ограничения, которые блокируют использование ИИ для принятия решений о нанесении ударов и массовой слежки за гражданами. Пентагон же в рамках стратегии AI-first требует «всех законных сценариев использования». Военным нужен инструмент, который не будет читать нотаци
Оглавление

Пятница как точка невозврата

24 февраля 2026 года в кабинетах Пентагона прозвучало слово «ультиматум». Министр обороны Пит Хегсет дал главе Anthropic Дарио Амодеи срок до пятницы. Условие жесткое: либо Claude сбрасывает этические «ошейники», либо компания вылетает из оборонного заказа на 200 миллионов долларов.

Это не просто спор о деньгах. Anthropic рискует попасть в черный список как «угроза цепочке поставок». Обычно такую метку получают иностранные шпионы или враждебные корпорации. Впервые в истории американская государственная машина разворачивается против своего же технологического лидера из-за его нежелания участвовать в создании автономного оружия.

Архитектура запрета против логики войны

Технически конфликт зашит в саму структуру Claude. Anthropic называет это guardrails — программные ограничения, которые блокируют использование ИИ для принятия решений о нанесении ударов и массовой слежки за гражданами. Пентагон же в рамках стратегии AI-first требует «всех законных сценариев использования». Военным нужен инструмент, который не будет читать нотации оператору в разгар боя.

Триггером послужил январь 2026-го. Операция по захвату Николаса Мадуро в Венесуэле показала, что ИИ уже глубоко интегрирован в боевые системы через платформы Palantir. Когда Anthropic попыталась выяснить, как именно использовалась их модель в этой миссии, в Минобороны это сочли вмешательством в вопросы национальной безопасности. Для генералов ИИ — это сложный, но все же снаряд. А снаряд не должен иметь собственного мнения о легитимности цели.

Цифровой пацифизм в эпоху большой гонки

Пока OpenAI и Google ищут гибкие формулировки, а xAI Илона Маска соглашается на любые задачи в рамках закона, Anthropic идет на открытый разрыв. Это ломает привычную логику Кремниевой долины, где рост капитализации всегда стоял выше гуманитарных манифестов. Если Claude уйдет с военного рынка, заменить его архитектуру будет трудно, но Пентагон готов на издержки ради принципа полного контроля.

Сюжет культового фильма «Военные игры» 1983 года строился на том, что машина научилась отказываться от бессмысленного удара. Anthropic пытается реализовать этот сценарий в коде, но реальная политика требует нажатия кнопок. Готовы ли мы к тому, что глобальная безопасность будущего будет зависеть не от международных договоров, а от политики использования (ToS) частной IT-компании?