Представьте: компания выпускает процессор, настолько мощный, что конкурент сразу же заказывает миллион штук. Звучит как фантастика? Но Google только что это сделала. И вот что получилось.
Эра инференса: когда модели работают, а не учатся
Google представила Ironwood — седьмое поколение своих специализированных чипов для искусственного интеллекта. Но это не просто очередное улучшение. Это переворот в том, как работает вся индустрия AI.
Вот что изменилось в голове у крупных компаний: раньше все гнались за размером модели, за её способностью учиться на огромных объёмах данных. Теперь фокус переместился совсем в другое место — нужно, чтобы эти модели молниеносно отвечали миллиардам пользователей каждый день. Именно это Google называет «эпохой инференса».
По словам Амина Вахдата, вице-президента Google Cloud по искусственному интеллекту: модели должны работать быстро и надёжно. Если чат-бот думает полминуты, прежде чем ответить, он становится просто бесполезным. Неважно, насколько умная модель внутри.
Ironwood: 9216 чипов, работающих как один супер-мозг
Технические характеристики Ironwood впечатляют. Речь идёт не просто об улучшении на проценты — это в четыре раза лучше, чем предыдущее поколение. И достигается это не за счёт банального «прибавим больше транзисторов», а за счёт умного проектирования на системном уровне.
Самое дикое — это масштаб. Один «pod» (так Google называет связанную вместе гирлянду чипов) может содержать 9216 отдельных процессоров. Они связаны между собой фирменной сетевой технологией, которая пропускает данные на скорости 9,6 терабита в секунду. Для сравнения: всю Библиотеку Конгресса можно скачать в такой сети за две секунды.
Все эти тысячи чипов имеют доступ к 1,77 петабайта сверхбыстрой памяти. Примерно 40 тысяч фильмов в высоком качестве — вся эта информация мгновенно доступна тысячам процессоров одновременно. Дикая производительность: 118 экзафлопс в формате FP8 — это больше, чем у ближайшего конкурента.
Но что действительно умно — это надёжность. Google использует технологию оптической коммутации. Когда какой-то элемент выходит из строя (а при таком масштабе это неизбежно), система в миллисекунды перестраивает маршруты данных. Всё продолжает работать, пользователь ничего не замечает.
Результат: жидкостное охлаждение Google обеспечивает 99,999% времени безотказной работы. То есть меньше шести минут простоя в год. Для системы такого масштаба — это просто сказка.
Anthropic заказала миллион чипов: это же бешеные деньги
И вот тут начинается самое интересное. Anthropic, компания, создавшая Claude (один из самых продвинутых AI-ассистентов), объявила: мы закупим до миллиона чипов Ironwood. Представляете масштаб?
Это не просто «значит, чип хороший». Это означает, что речь идёт о десятках миллиардов долларов. Может, это одна из самых крупных сделок по инфраструктуре в истории высоких технологий. Для сравнения: даже кластеры из 10-50 тысяч процессоров считаются здоровенными.
Anthropic планирует запустить больше гигаватта мощности в 2026 году. Это хватит, чтобы снабжать электричеством целый маленький город. И всё это — чтобы обслуживать запросы пользователей к Claude.
Глава отдела вычислений Anthropic James Bradbury объяснил просто: Ironwood даёт нам то, что нужно для быстрого и надёжного обслуживания. И компания выбрала именно Google не потому, что это модно, а потому что у них уже есть опыт работы с этими чипами.
Axion: когда нужны «обычные» мощные процессоры
Но Ironwood — это только половина истории. Google также расширила линейку Axion. Что это такое? Это процессоры на архитектуре Arm, которые не такие супер-специализированные, как Ironwood, но зато универсальные.
Зачем они нужны? Потому что AI-приложение — это не только сам нейросет. Нужно обработать входные данные, очистить их, запустить логику приложения, отправить результаты пользователю. Вот для этого нужны Axion.
Новый тип N4A обещает в два раза лучшую производительность за те же деньги в сравнении со старыми процессорами x86. Звучит не так впечатляюще, как Ironwood, но в реальных приложениях это экономит бешеные суммы.
Например, Vimeo заметила 30-процентное улучшение при работе с видео. ZoomInfo измерила 60-процентное улучшение экономичности при обработке данных. По словам их главного архитектора инфраструктуры, это серьёзные деньги на год.
Софт, который превращает железо в результаты
Но даже самый мощный процессор бесполезен, если разработчик не знает, как его использовать. Google это понимает и вложила силы в программное обеспечение.
Вот конкретный пример: Inference Gateway. Это система, которая берёт входящие запросы и умно распределяет их между серверами. Если несколько пользователей обсуждают один и тот же контекст, система отправляет запросы на один и тот же сервер. Почему? Потому что там уже в памяти живёт нужная информация. Это сокращает время первого ответа на 96% и экономит до 30% на затратах.
Ещё Google открыла MaxText — фреймворк с поддержкой продвинутых техник обучения. Kubernetes получил инструменты для умного управления кластерами TPU. Всё это работает вместе под названием AI Hypercomputer.
И вот что особенно показательно: компании, которые используют весь этот набор, видят возврат на инвестиции в 353% за три года. Затраты на IT падают на 28%, а команды работают на 55% эффективнее. Это не маркетинговые цифры — это данные из независимого исследования IDC.
Тепловая и электрическая адская машина
Но есть грязная физическая правда. Когда вы собираете 9216 чипов в одно место, каждый из которых сжигает тысячу ватт, вы создаёте печь. Нужно охлаждение.
Google решила эту проблему жидкостным охлаждением. Вода переносит в четыре тысячи раз больше тепла, чем воздух. Компания развернула это в тысячах pod’ов за семь лет и держит такую же надёжность — 99,999%.
С электричеством ещё интереснее. Google переходит на питание постоянным током с напряжением плюс-минус 400 вольт. Один стеллаж может потреблять целый мегаватт. Это в десять раз больше, чем обычно.
Почему 400 вольт? Потому что это стандарт, который уже использует индустрия электрокаров. Это значит: готовые компоненты, отработанные цепочки поставок, дешевле и надёжнее.
Google вместе с Meta и Microsoft сейчас стандартизирует эти интерфейсы. К 2030 году ML требовать будет больше полумегаватта на стеллаж. Грубо говоря, нужна гигавольтная армия охлаждения и электроснабжения.
Вызов Nvidia: Google ставит на своё железо
Вся эта история — это вызов Nvidia. Компания контролирует 80-95% рынка AI-процессоров. Это монополия, и все это знают.
Google решает это по-своему: сам разрабатывает процессоры, сам пишет софт, сам строит инфраструктуру. Вертикальная интеграция в чистом виде.
Рисковано? Да. Стоит миллиарды? Да. Экосистема софта отстаёт от Nvidia CUDA? Безусловно. А если архитектуры моделей резко изменятся, может статься, что вчерашний супер-чип станет морально устаревшим за месяц.
Но у Google есть аргумент. Они создали первый TPU десять лет назад — это помогло им изобрести Transformer восемь лет назад. Та самая архитектура, на которой сейчас работает весь современный AI. Вот такой опыт взаимодействия между железом и математикой.
Другие тестеры тоже позитивны. Lightricks, которая разрабатывает инструменты для творческого AI, говорит: с Ironwood мы сможем создавать более точное видео и изображения в реальном времени.
Большой вопрос: может ли индустрия вообще это себе позволить?
Но возникает одна очень неудобная проблема. Индустрия уже потратила сотни миллиардов на инфраструктуру. А Google, Microsoft, Amazon, Meta — они продолжают инвестировать как одержимые. Это стойкий.
Может ли это продолжаться? Принесёт ли это прибыль? Эти вопросы витают в воздухе.
Но вот что ясно: если Anthropic готова заказать миллион чипов — значит, индустрия верит, что доход от AI того стоит. Иначе никто бы не выбросил такие деньги.
Google делает ставку, которая определяла компанию всегда: строим свою инфраструктуру, добиваемся того, что невозможно с обычным железом, а потом предлагаем это другим. В эпоху, когда AI переходит из лабораторий в массовое использование, эта инфраструктура может стать самой важной частью. Даже важнее самих моделей.
Инфраструктура AI — это не скучная техническая деталь, это основа всего, что происходит с искусственным интеллектом прямо сейчас. Хотите разбираться в этом глубже?🔔 Чтобы следить за развитием AI-инфраструктуры, новыми чипами и облачными технологиями, подписывайтесь на мой канал «ProAI» в Telegram!