В ночь на 3 марта 2026 года рабочие потоки по всему миру столкнулись с масштабным простоем Anthropic — серийные ошибки в сервисах Claude, длительный «даун» ключевых моделей (Claude Opus 4.6, Claude Haiku 4.5) и параллельный инцидент в дата‑центре Amazon Web Services в ОАЭ, где «неопознанный объект» вызвал пожар и аварийное отключение питания.
Последовали жёсткие административные меры — Министерство финансов США объявило о полном прекращении использования Claude в ведомстве; ряд агентств и госструктур пошли тем же путём.
В ответ технологическое сообщество устроило массовую кампанию в защиту Anthropic, а общественный раскол вокруг военного сотрудничества и приватности привёл к всплеску отказов от ChatGPT и росту протестных движений.
- Хронология инцидента и масштабы сбоя
- По данным, опубликованным в открытых источниках, массовые ошибки у пользователей начались примерно в 00:49 по Московскому времени. Сначала отказали веб‑интерфейс Claude.ai, консоль разработчика и инструменты Claude Code; затем стали падать API‑запросы.
- В 03:35 произошёл крупный сбой на уровне ядра — модель Claude Opus 4.6 начала массово возвращать ошибки; после экстренных правок сервис временно стабилизировали, однако сразу за этим возникли проблемы и у модели Claude Haiku 4.5. Полное восстановление состояния платформы заняло почти 10 часов — окончательная стабилизация зафиксирована около 10:16 следующего утра.
- Одновременно около 01:30 в одной из доступных зон AWS в ОАЭ произошло поражение «неопознанным объектом», приведшее к возгоранию и аварийному отключению питания. По сообщению AWS, повреждённая зона (код mec1‑az2) потеряла ёмкость на несколько часов, что серьёзно ударило по пулу доступных облачных вычислительных мощностей.
- Как физическое повреждение дата‑центра связано с глобальным сбоем Claude
Anthropic опирается на AWS как на ключевого поставщика облачных ресурсов. Временное выгорание узла в регионе, где размещались критические сервисы и узлы для распределённого inference, могло вызвать резкое сокращение доступного трафика и потерю сетевых соединений. В результате кластерные модели потеряли часть своих рабочих нод — это объясняет длительный и многопрофильный характер отказов. При этом в публичных релизах AWS не комментировали подробную причину удара, обозначив лишь «объект», что породило множество спекуляций в медиа и соцсетях. - Государственная реакция: Министерство финансов США и другие структуры приостанавливают использование Claude
Министерство финансов США (Министерство финансов США) оперативно объявило о полном прекращении использования инструментов Anthropic. За ним последовали Федеральное управление жилищного финансирования (FHFA), а также государственные ипотечные агентства Fannie Mae и Freddie Mac — они также ограничили использование Claude в служебных процессах. В ведомственных кругах причиной называли «риски цепочки поставок» и угрозы для непрерывности критических сервисов.
Ранее Claude уже использовался в рамках программ GSA/OneGov, поэтому остановка стала серьёзным политическим сигналом.
Реакция индустрии и общественности: письма, бойкоты и рост оттока пользователей:
Сотни руководителей и сотрудников технологических компаний подписали открытые письма в защиту Anthropic, потребовав пересмотреть квалификацию «риск‑поставщика» и попросив Конгресс провести расследование корректности решений регуляторов. Среди подписантов — представители крупных компаний и венчурных фондов.
На фоне новостей о военном сотрудничестве Anthropic и общих опасениях по поводу милитаризации ИИ, пользователи начали массово удалять приложения. По данным Sensor Tower, суточный объём удалений ChatGPT в США вырос на 295% после новостей о контрактных связях с обороной. Рейтинговые оценки приложений также резко ухудшились (волна однозвёздочных отзывов).
В то же время наблюдался резкий рост интереса к конкурентам: загрузки Claude в некоторых странах обгоняли ChatGPT, что усилило информационный конфликт и противоречивые настроения в обществе.
Финансовые и репутационные риски для Anthropic:
Совсем недавно Anthropic сообщала о масштабных инвестициях и раундах финансирования (в публикации упоминались суммы порядка сотен миллиардов долларов в сумме/заявленных планах). Теперь подобные политические и операционные риски ставят под угрозу дальнейшие раунды и партнерства.
На карту поставлено не только доверие клиентов и госзаказчиков, но и крайне важный аспект — цепочка поставок аппаратного обеспечения. В медиа активно обсуждается риск «перекрытия» поставок со стороны крупных вендоров аппаратного обеспечения (включая NVIDIA), если регуляторы сочтут поставщика вычислительных мощностей «рискованным» с точки зрения безопасности или соответствия требованиям. Такое развитие событий могло бы серьёзно ударить по способности Anthropic обеспечивать масштабный inference.
Контекст и последствия для всей отрасли:
Инцидент ясно показывает, насколько зависима инфраструктура больших моделей от физической надёжности дата‑центров и политической конъюнктуры. Даже мощные распределённые системы уязвимы к локальным физическим сбоям и к регуляторным рискам.
Обостряются вопросы диверсификации: компании усилят мотивацию к мультиоблачным и мультирегиональным стратегиям, к локальному резервированию ресурсов и к снижению зависимости от одного поставщика или региона.
Политическая реакция (запреты использования в государственных структурах) задаёт прецедент и усложняет переговоры корпораций с государством по вопросам прозрачности, аудита и гарантий неприкосновенности сервисов. Это может привести к ужесточению требований к сертификации и аудиту AI‑провайдеров.
Итог и возможные сценарии развития событий
Короткий прогноз: в ближайшие недели возможна дальнейшая эскалация политических действий (расследования, ограничение контрактов), ответные шаги индустрии (лоббирование, коллективные обращения, усиление мер безопасности) и переоценка рисков инвесторами.
Для Anthropic критически важно продемонстрировать техническую устойчивость (распределение нагрузки, резервирование, планы аварийного восстановления) и прозрачность по вопросам использования и коммерческих соглашений с государственными структурами.
Для рынка в целом урок ясен: в эпоху, когда ИИ становится частью критических рабочих процессов, надёжность физической инфраструктуры и политическая устойчивость оказываются не менее важны, чем качество моделей.
Хотите создать уникальный и успешный продукт? СМС – ваш надежный партнер в мире инноваций! Закажи разработки ИИ-решений, LLM-чат-ботов, моделей генерации изображений и автоматизации бизнес-процессов у профессионалов.
ИИ сегодня — ваше конкурентное преимущество завтра!
Тел. +7 (985) 982-70-55
E-mail sms_systems@inbox.ru
Сайт https://www.smssystems.ru/razrabotka-ai/