Найти в Дзене
Social Mebia Systems

Claude — глобальный сбой, взрыв в дата центре, Министерство финансов США приостанавливает использование

В ночь на 3 марта 2026 года рабочие потоки по всему миру столкнулись с масштабным простоем Anthropic — серийные ошибки в сервисах Claude, длительный «даун» ключевых моделей (Claude Opus 4.6, Claude Haiku 4.5) и параллельный инцидент в дата‑центре Amazon Web Services в ОАЭ, где «неопознанный объект» вызвал пожар и аварийное отключение питания. Последовали жёсткие административные меры — Министерство финансов США объявило о полном прекращении использования Claude в ведомстве; ряд агентств и госструктур пошли тем же путём. В ответ технологическое сообщество устроило массовую кампанию в защиту Anthropic, а общественный раскол вокруг военного сотрудничества и приватности привёл к всплеску отказов от ChatGPT и росту протестных движений. Реакция индустрии и общественности: письма, бойкоты и рост оттока пользователей: Сотни руководителей и сотрудников технологических компаний подписали открытые письма в защиту Anthropic, потребовав пересмотреть квалификацию «риск‑поставщика» и попросив Конгрес

В ночь на 3 марта 2026 года рабочие потоки по всему миру столкнулись с масштабным простоем Anthropic — серийные ошибки в сервисах Claude, длительный «даун» ключевых моделей (Claude Opus 4.6, Claude Haiku 4.5) и параллельный инцидент в дата‑центре Amazon Web Services в ОАЭ, где «неопознанный объект» вызвал пожар и аварийное отключение питания.

Последовали жёсткие административные меры — Министерство финансов США объявило о полном прекращении использования Claude в ведомстве; ряд агентств и госструктур пошли тем же путём.

В ответ технологическое сообщество устроило массовую кампанию в защиту Anthropic, а общественный раскол вокруг военного сотрудничества и приватности привёл к всплеску отказов от ChatGPT и росту протестных движений.

  1. Хронология инцидента и масштабы сбоя
  • По данным, опубликованным в открытых источниках, массовые ошибки у пользователей начались примерно в 00:49 по Московскому времени. Сначала отказали веб‑интерфейс Claude.ai, консоль разработчика и инструменты Claude Code; затем стали падать API‑запросы.
  • В 03:35 произошёл крупный сбой на уровне ядра — модель Claude Opus 4.6 начала массово возвращать ошибки; после экстренных правок сервис временно стабилизировали, однако сразу за этим возникли проблемы и у модели Claude Haiku 4.5. Полное восстановление состояния платформы заняло почти 10 часов — окончательная стабилизация зафиксирована около 10:16 следующего утра.
  • Одновременно около 01:30 в одной из доступных зон AWS в ОАЭ произошло поражение «неопознанным объектом», приведшее к возгоранию и аварийному отключению питания. По сообщению AWS, повреждённая зона (код mec1‑az2) потеряла ёмкость на несколько часов, что серьёзно ударило по пулу доступных облачных вычислительных мощностей.
  1. Как физическое повреждение дата‑центра связано с глобальным сбоем Claude
    Anthropic опирается на AWS как на ключевого поставщика облачных ресурсов. Временное выгорание узла в регионе, где размещались критические сервисы и узлы для распределённого inference, могло вызвать резкое сокращение доступного трафика и потерю сетевых соединений. В результате кластерные модели потеряли часть своих рабочих нод — это объясняет длительный и многопрофильный характер отказов. При этом в публичных релизах AWS не комментировали подробную причину удара, обозначив лишь «объект», что породило множество спекуляций в медиа и соцсетях.
  2. Государственная реакция: Министерство финансов США и другие структуры приостанавливают использование Claude
    Министерство финансов США (Министерство финансов США) оперативно объявило о полном прекращении использования инструментов Anthropic. За ним последовали Федеральное управление жилищного финансирования (FHFA), а также государственные ипотечные агентства Fannie Mae и Freddie Mac — они также ограничили использование Claude в служебных процессах. В ведомственных кругах причиной называли «риски цепочки поставок» и угрозы для непрерывности критических сервисов.
    Ранее Claude уже использовался в рамках программ GSA/OneGov, поэтому остановка стала серьёзным политическим сигналом.

Реакция индустрии и общественности: письма, бойкоты и рост оттока пользователей:

Сотни руководителей и сотрудников технологических компаний подписали открытые письма в защиту Anthropic, потребовав пересмотреть квалификацию «риск‑поставщика» и попросив Конгресс провести расследование корректности решений регуляторов. Среди подписантов — представители крупных компаний и венчурных фондов.

На фоне новостей о военном сотрудничестве Anthropic и общих опасениях по поводу милитаризации ИИ, пользователи начали массово удалять приложения. По данным Sensor Tower, суточный объём удалений ChatGPT в США вырос на 295% после новостей о контрактных связях с обороной. Рейтинговые оценки приложений также резко ухудшились (волна однозвёздочных отзывов).

-2

В то же время наблюдался резкий рост интереса к конкурентам: загрузки Claude в некоторых странах обгоняли ChatGPT, что усилило информационный конфликт и противоречивые настроения в обществе.

Финансовые и репутационные риски для Anthropic:

Совсем недавно Anthropic сообщала о масштабных инвестициях и раундах финансирования (в публикации упоминались суммы порядка сотен миллиардов долларов в сумме/заявленных планах). Теперь подобные политические и операционные риски ставят под угрозу дальнейшие раунды и партнерства.

На карту поставлено не только доверие клиентов и госзаказчиков, но и крайне важный аспект — цепочка поставок аппаратного обеспечения. В медиа активно обсуждается риск «перекрытия» поставок со стороны крупных вендоров аппаратного обеспечения (включая NVIDIA), если регуляторы сочтут поставщика вычислительных мощностей «рискованным» с точки зрения безопасности или соответствия требованиям. Такое развитие событий могло бы серьёзно ударить по способности Anthropic обеспечивать масштабный inference.

Контекст и последствия для всей отрасли:

Инцидент ясно показывает, насколько зависима инфраструктура больших моделей от физической надёжности дата‑центров и политической конъюнктуры. Даже мощные распределённые системы уязвимы к локальным физическим сбоям и к регуляторным рискам.

Обостряются вопросы диверсификации: компании усилят мотивацию к мультиоблачным и мультирегиональным стратегиям, к локальному резервированию ресурсов и к снижению зависимости от одного поставщика или региона.

Политическая реакция (запреты использования в государственных структурах) задаёт прецедент и усложняет переговоры корпораций с государством по вопросам прозрачности, аудита и гарантий неприкосновенности сервисов. Это может привести к ужесточению требований к сертификации и аудиту AI‑провайдеров.

Итог и возможные сценарии развития событий

Короткий прогноз: в ближайшие недели возможна дальнейшая эскалация политических действий (расследования, ограничение контрактов), ответные шаги индустрии (лоббирование, коллективные обращения, усиление мер безопасности) и переоценка рисков инвесторами.

Для Anthropic критически важно продемонстрировать техническую устойчивость (распределение нагрузки, резервирование, планы аварийного восстановления) и прозрачность по вопросам использования и коммерческих соглашений с государственными структурами.

Для рынка в целом урок ясен: в эпоху, когда ИИ становится частью критических рабочих процессов, надёжность физической инфраструктуры и политическая устойчивость оказываются не менее важны, чем качество моделей.

Хотите создать уникальный и успешный продукт? СМС – ваш надежный партнер в мире инноваций! Закажи разработки ИИ-решений, LLM-чат-ботов, моделей генерации изображений и автоматизации бизнес-процессов у профессионалов.

ИИ сегодня — ваше конкурентное преимущество завтра!

Тел. +7 (985) 982-70-55

E-mail sms_systems@inbox.ru

Сайт https://www.smssystems.ru/razrabotka-ai/