Добавить в корзинуПозвонить
Найти в Дзене
Гостев из будущего

2026-й — это не год AI

Это год инфраструктуры. Пока все обсуждают агентов и новые модели, настоящий рынок выглядит иначе: GPU, ASIC, память, сети, охлаждение, энергия, облака, интеграция и наблюдаемость. Gartner оценивает AI-расходы в 2026-м в $2,52 трлн — и большая часть этих денег уходит не в приложения, а в фундамент под ними. Это строительный бум. Буквально. Как в Калифорнии 1849 года: пока одни ищут золото, другие продают лопаты. В AI выиграют не только те, кто сделает очередного ассистента или красивый интерфейс. Выиграют те, кто продаёт compute, чипы, дата-центры, облака, электричество, охлаждение и инструменты для управления всей этой сложностью. Первый слой — чипы и железо. Публичные ставки очевидны: NVIDIA, AMD, Broadcom, Marvell, TSMC. NVIDIA остаётся главным символом AI-инфраструктуры, но рынок уже сложнее. AMD наращивает долю в дата-центрах, Broadcom и Marvell делают кастомные ASIC для гиперскейлеров, TSMC загружена на годы вперёд. Но интереснее смотреть и на следующий уровень: компании, ко

2026-й — это не год AI. Это год инфраструктуры.

Пока все обсуждают агентов и новые модели, настоящий рынок выглядит иначе: GPU, ASIC, память, сети, охлаждение, энергия, облака, интеграция и наблюдаемость. Gartner оценивает AI-расходы в 2026-м в $2,52 трлн — и большая часть этих денег уходит не в приложения, а в фундамент под ними.

Это строительный бум. Буквально.

Как в Калифорнии 1849 года: пока одни ищут золото, другие продают лопаты. В AI выиграют не только те, кто сделает очередного ассистента или красивый интерфейс. Выиграют те, кто продаёт compute, чипы, дата-центры, облака, электричество, охлаждение и инструменты для управления всей этой сложностью.

Первый слой — чипы и железо. Публичные ставки очевидны: NVIDIA, AMD, Broadcom, Marvell, TSMC. NVIDIA остаётся главным символом AI-инфраструктуры, но рынок уже сложнее. AMD наращивает долю в дата-центрах, Broadcom и Marvell делают кастомные ASIC для гиперскейлеров, TSMC загружена на годы вперёд.

Но интереснее смотреть и на следующий уровень: компании, которые делают специализированные AI-чипы под конкретные задачи. Groq — на inference-ускорителях, Cerebras — на wafer-scale чипах для обучения, Etched — на чипах, заточенных исключительно под трансформеры. Если архитектура моделей стабилизируется, специализированное железо может начать выигрывать у универсального.

Второй слой — память. Одно из главных узких мест всей индустрии. Без неё современные GPU не работают на полной мощности. Sandisk, Hynix и Micron уже стали очевидными ставками на этот тренд. Дальше стоит смотреть на тех, кто пытается решить проблему архитектурно: например, компании вроде Tenstorrent, где память и вычисления сближаются. Нейроморфная ставка — MRAM.

Третий слой — энергия и охлаждение. Это, возможно, самый недооценённый сектор всего AI-бума. Дата-центры потребляют электричество как небольшие города — и это только начало. Vertiv и Eaton зарабатывают на охлаждении и питании. Constellation Energy и Vistra — на чистой энергии, которую гиперскейлеры покупают по долгосрочным контрактам.

Отдельная тема — ядерная энергетика и микрогенерация. Oklo, Kairos Power, X-Energy и другие компании становятся частью разговора о будущем AI-инфраструктуры не потому, что это модно, а потому что дата-центрам нужна стабильная, дешёвая и масштабируемая энергия. Microsoft, Google и Amazon уже подписывают соглашения в этой области.

Четвёртый слой — облака и альтернативный compute. AWS, Azure и Google Cloud — очевидные победители инфраструктурного цикла. Но рядом формируется рынок neocloud-провайдеров: CoreWeave, Nebius Воложа, Lambda Labs, Together AI. Они продают GPU-мощности тем, кому не хватает ресурсов у гиперскейлеров.

Пятый слой — сети. AI-кластеры требуют новой архитектуры: тысячи GPU должны обмениваться данными почти без задержек. Arista Networks — очевидная публичная ставка на этот тренд. Из частных компаний интересна Enfabrica, которая делает сетевые чипы специально для AI-инфраструктуры.

Шестой слой — интеграция и наблюдаемость. Кто-то должен всё это соединять, мониторить и чинить. Чем сложнее инфраструктура, тем больше денег уходит в инструменты управления. ServiceNow, Datadog, Elastic, Grafana — компании, которые зарабатывают на каждом новом слое сложности.

Появляется и LLM-observability: Weights & Biases, Arize AI, Langfuse помогают отслеживать, тестировать и контролировать AI-системы. Их плюс в том, что им не нужно угадывать победившую модель. Они обслуживают саму инфраструктуру.

И ещё один момент, который многие пропускают: этот бум уже упирается в физику!

Amazon, Microsoft и Google сталкиваются с давлением из-за потребления воды и энергии. Часть проектов дата-центров отменяется или задерживается из-за сопротивления местных сообществ. К 2027-му вопрос «кто имеет право сжигать электричество ради моделей» станет не только технологическим, но и политическим.

Чем ближе компания к физике и чем дальше она от конкретной модели, тем устойчивее её позиция. Модели меняются каждые два месяца. Интерфейсы копируются. А электричество, охлаждение, память, сети и compute нужны всем и всегда.

@gostev_future