Добавить в корзинуПозвонить
Найти в Дзене
ProAi

Google против Nvidia: как TPU наконец бросает вызов GPU-империи

Представьте себе: более десяти лет графические процессоры Nvidia буквально держали на себе почти все крупные прорывы в ИИ. И вот — неожиданный поворот. Эта позиция, кажется, начинает колебаться. Знаете что произошло? Передовые модели вроде Google Gemini 3 и Anthropic Claude 4.5 Opus обучались не на железе Nvidia, а на свежих Tensor Processing Units от Google — на базе Ironwood, это TPUv7. Это сигнал о том, что реальная альтернатива GPU-центричному ИИ-стеку уже здесь. И это меняет экономику фронтирных тренировок. У Nvidia есть CUDA — Compute Unified Device Architecture. Это платформа, которая открывает доступ к огромной параллельной мощности GPU. Вместе с инструментами вокруг неё это создало то, что называют «CUDA-моатом» (в смысле защитным рвом). Логика простая: когда команда выстраивает конвейеры на CUDA, переход на другую платформу становится дико дорогим. Везде зависимости от софта Nvidia. Плюс ко всему этому — первый мотор на рынке. Результат? Феноменальные 75% брутто-маржи. Ну да.
Оглавление
   Google TPU бросает вызов Nvidia в гонке AI-технологий, революционизируя облачные вычисления и машинное обучение с инновационными чипами.
Google TPU бросает вызов Nvidia в гонке AI-технологий, революционизируя облачные вычисления и машинное обучение с инновационными чипами.

Представьте себе: более десяти лет графические процессоры Nvidia буквально держали на себе почти все крупные прорывы в ИИ. И вот — неожиданный поворот. Эта позиция, кажется, начинает колебаться.

Знаете что произошло? Передовые модели вроде Google Gemini 3 и Anthropic Claude 4.5 Opus обучались не на железе Nvidia, а на свежих Tensor Processing Units от Google — на базе Ironwood, это TPUv7. Это сигнал о том, что реальная альтернатива GPU-центричному ИИ-стеку уже здесь. И это меняет экономику фронтирных тренировок.

Почему Nvidia была неуязвима

У Nvidia есть CUDA — Compute Unified Device Architecture. Это платформа, которая открывает доступ к огромной параллельной мощности GPU. Вместе с инструментами вокруг неё это создало то, что называют «CUDA-моатом» (в смысле защитным рвом). Логика простая: когда команда выстраивает конвейеры на CUDA, переход на другую платформу становится дико дорогим. Везде зависимости от софта Nvidia. Плюс ко всему этому — первый мотор на рынке. Результат? Феноменальные 75% брутто-маржи. Ну да.

А TPU? Совсем другая история. Они с первого дня создавались как специализированное железо именно для машинного обучения. С каждым поколением Google углубляется в ускорение крупномасштабного ИИ. И вот теперь TPUv7 — железо за двумя из самых продвинутых ИИ-моделей в истории — это явный сигнал более широкой стратегии: Google хочет поколебать монополию Nvidia.

Видите ли, GPU и TPU решают одну задачу — разгоняют машинное обучение. Но это совсем разные философии. GPU — это универсальные параллельные процессоры. TPU — это специализированные системы, заточенные почти исключительно под огромные матричные вычисления. И Google с TPUv7 зашёл ещё дальше: высокоскоростные кабели интегрированы прямо в чип. TPU-поды масштабируются как один суперкомпьютер. А это значит — меньше задержек и затрат, которые обычно сопровождают GPU-кластеры.

«TPU спроектированы как полная ‘система’, а не просто микросхема», — рассказал VentureBeat Вал Бёркович, главный AI-офицер в WEKA.

Google развернулся: от внутреннего использования к рынку

Раньше Google держал TPU в строгом засекречении. Доступ только через облачные аренды на Google Cloud Platform. Ну, может быть, не совсем засекречены, но очень замороженны. В последние месяцы всё изменилось. Google начал продавать это железо внешним клиентам. То есть чип отделили от облачного сервиса. Теперь можно выбирать: аренда (OpEx) или покупка (CapEx). Для крупных AI-лабораторий, которые любят владеть своим железом, это огромное облегчение. И скидка на «облачную ренту» — это серьёзно.

Главный анонс? Мега-сделка с Anthropic. Создатели Claude 4.5 Opus получат доступ к миллиону чипов TPUv7. Это больше гигаватта мощности. Через Broadcom (долгого партнёра Google в дизайне) примерно 400 тысяч чипов продаются прямо Anthropic. Оставшиеся 600 тысяч — традиционная аренда через Google Cloud. Это стоит миллиарды. И, кстати, это запирает одного из главных конкурентов OpenAI в экосистеме Google. Вот это ход.

Разрушение «CUDA-моата»

Годами GPU Nvidia были явным лидером. Мощное железо плюс огромная библиотека оптимизированного кода, стандартные фреймворки, миллионы разработчиков, знающих это. Компании просто застревали в CUDA: уход отсюда стоил бы непомерных денег.

Раньше TPU хорошо работали с JAX — с собственной библиотекой Google. Но весь ИИ-мир работает на PyTorch, открытом фреймворке, заточенном под CUDA.

И вот Google прямо атакует эту проблему. TPUv7 поддерживает встроенную интеграцию с PyTorch, включая eager execution, полную поддержку распределённых API, torch.compile и кастомные TPU-ядра под PyTorch-цепочкой инструментов. Задача такая: PyTorch должен работать на TPU так же легко, как на GPU от Nvidia.

Плюс Google вкладывается в vLLM и SGLang — два популярнейших фреймворка для инференса. Оптимизация этих инструментов под TPU — это значит разработчики смогут менять железо без полной переписи кода.

TPU против GPU: кто лучше?

Когда предприятия выбирают между TPU и GPU для крупномасштабных ML-задач, речь идёт о цене, производительности и масштабируемости. SemiAnalysis недавно углубилась в анализ обоих технологий, измеряя эффективность затрат и технические показатели.

Благодаря специализированной архитектуре и лучшей энергоэффективности TPUv7 даёт значительно больше пропускной способности за доллар. Это касается и крупномасштабного обучения, и массового инференса. Компании могут снижать расходы на электричество, охлаждение, инфраструктуру датацентров. По оценкам SemiAnalysis, общая стоимость владения (TCO) Ironwood-сервера примерно на 44% ниже, чем эквивалентный Nvidia GB200 Blackwell. Даже если учесть профиты Google и Broadcom, внешние клиенты типа Anthropic видят снижение затрат примерно на 30% против Nvidia. «Когда цена критична, TPU имеют смысл для гигантских AI-проектов. Гиперскейлеры и AI-лаборатории могут достичь снижения TCO на 30-50%, это могут быть миллиарды в экономии», — говорит Бёркович.

Эта экономическая рычаг уже переделывает рынок. Просто существование альтернативы позволило OpenAI добиться 30%-й скидки на Nvidia-железо. OpenAI — один из крупнейших покупателей GPU от Nvidia, но недавно компания подключила Google TPU через облако, чтобы закрыть растущие вычислительные потребности. Meta тоже, похоже, близка к тому, чтобы закупить Google TPU для своих датацентров.

Может быть, Ironwood выглядит как идеальное решение? Но нет, есть свои компромиссы. TPU — звёзды в конкретных deep learning-задачах, но намного менее гибки, чем GPU. GPU запустят чуть ли не любой алгоритм, включая не-ИИ. Если завтра придумают новый AI-метод — GPU заработает на нём сразу. Это делает GPU подходящими для организаций, работающих с широким спектром вычислений за пределами стандартного deep learning.

Миграция из GPU-среды может быть дорогой и долгой. Особенно для команд с готовыми CUDA-конвейерами, кастомными ядрами под GPU или фреймворками, ещё не оптимизированными под TPU.

Бёркович советует: «Берите GPU, когда нужно спешить и время выхода на рынок — король. GPU используют стандартную инфраструктуру и самую большую экосистему разработчиков, справляются с динамичными сложными задачами, которые TPU не оптимизированы, и встраиваются в существующие on-premises датацентры без требования перестройки питания и сетей.»

Плюс GPU везде, поэтому инженеров под них найти проще. TPU требуют редкую квалификацию. «Чтобы раскрыть силу TPU, нужна глубина инженерии — способность искать и удерживать редких талантов, которые пишут кастомные ядра и оптимизируют компиляторы», — добавляет Бёркович.

На практике преимущества Ironwood раскрываются в основном для предприятий с крупными, напряжённо-вычислительными нагрузками. Если нужна широкая гибкость, гибридное облако или HPC-универсальность — GPU лучше. В большинстве реальных случаев гибридный подход, комбинирующий оба типа, даст лучший баланс специализации и гибкости.

Что будет дальше?

Конкуренция за доминирование в ИИ-железе накаляется, но говорить о победителе ещё рано. Может, и не будет вообще победителя-единственного. Nvidia и Google инновируют бешеным темпом, компании вроде Amazon прыгают в игру. ИИ-системы будущего могут быть гибридными, совмещающими и TPU, и GPU.

«Google Cloud видит растущий спрос и на наши кастомные TPU, и на GPU от Nvidia, — рассказал представитель Google VentureBeat. — В результате мы значительно расширяем предложение GPU от Nvidia. Реальность такова: большинство клиентов Google Cloud используют и то и другое. С нашим широким выбором последних GPU от Nvidia и семью поколениями кастомных TPU мы даём клиентам гибкость выбора для оптимизации под их конкретные нужды.»

Конкуренция между техническими гигантами — это то, что движет прогрессом. Следите за развитием AI-железа и узнавайте, какие решения выбирают крупные игроки.🔔 Чтобы не пропустить новости о TPU, GPU, фронтирных AI-моделях и быть в курсе всех изменений в мире ИИ, подпишитесь на мой канал «ProAI» в Telegram!