Добавить в корзинуПозвонить
Найти в Дзене
Terabucks

Дженсен Хуанг: электроны на входе, токены на выходе, и при чём тут сантехники

Разговор, после которого начинаешь иначе смотреть на свою видеокарту Представьте: вам дают три часа с человеком, чья компания стоит больше, чем ВВП большинства стран мира. И вместо того чтобы спрашивать про яхты и любимый сорт кофе, подкастёр Дваркеш Патель засыпает его вопросами про цепочки поставок, TPU против GPU, и можно ли продавать чипы Китаю. Результат — один из самых мясных разговоров об ИИ-индустрии за последнее время. Дженсен Хуанг, CEO Nvidia — человек в кожаной куртке, который всё ещё немного удивлён, что его компания стала важнее большинства государств — говорит откровенно, перебивает, спорит, и в одном месте буквально называет аргументы собеседника «ребяческими». Это не пресс-релиз. Это живой человек, который явно думает о своём бизнесе 24/7. Разберём всё по порядку. Вот вопрос, который задал Дваркеш: Nvidia отправляет дизайн-файл на TSMC. TSMC делает чипы. SK Hynix/Micron/Samsung делают память. ODM в Тайване собирает стойки. Nvidia — это просто программная прослойка над
Оглавление

Разговор, после которого начинаешь иначе смотреть на свою видеокарту

Представьте: вам дают три часа с человеком, чья компания стоит больше, чем ВВП большинства стран мира. И вместо того чтобы спрашивать про яхты и любимый сорт кофе, подкастёр Дваркеш Патель засыпает его вопросами про цепочки поставок, TPU против GPU, и можно ли продавать чипы Китаю.

Результат — один из самых мясных разговоров об ИИ-индустрии за последнее время.

Дженсен Хуанг, CEO Nvidia — человек в кожаной куртке, который всё ещё немного удивлён, что его компания стала важнее большинства государств — говорит откровенно, перебивает, спорит, и в одном месте буквально называет аргументы собеседника «ребяческими». Это не пресс-релиз. Это живой человек, который явно думает о своём бизнесе 24/7.

Разберём всё по порядку.

«Электроны на входе — токены на выходе. Посередине — Nvidia»

Вот вопрос, который задал Дваркеш: Nvidia отправляет дизайн-файл на TSMC. TSMC делает чипы. SK Hynix/Micron/Samsung делают память. ODM в Тайване собирает стойки. Nvidia — это просто программная прослойка над чужим железом. Если ПО скоммодитизируется, что останется от Nvidia?

Дженсен сначала выдерживает паузу (буквально, можно по тайм-коду проверить), а потом выдаёт формулу, которая разошлась по рунету оверквотами:

«На входе — электроны. На выходе — токены. Посередине — Nvidia. Наша работа: сделать ровно столько, сколько нужно, и как можно меньше»

Это не просто красивая фраза. Это философия компании.

Nvidia сознательно не хочет делать всё сама. Она хочет быть незаменимой точкой в центре огромной экосистемы. Поставщики вверх по цепочке (TSMC, Micron, Lumentum), клиенты вниз по цепочке (гиперскейлеры, стартапы, исследовательские лаборатории), разработчики моделей и фреймворков — всё это вращается вокруг одного полюса.

И кстати, о GTC — ежегодной конференции Nvidia. Дженсен рассказывает, что половина его работы — это буквально образовательный туризм. Он объезжает CEO поставщиков и объясняет им, насколько большой будет эта индустрия, чтобы те вложились в мощности. Без этого никакие контракты не помогут: нельзя нарастить производство CoWoS (технология упаковки чипов) за один день. Это годы инвестиций.

«Бутылочное горлышко? Да, это сантехники»

Дваркеш задаёт вопрос, который волнует всех: Ну окей, вы удваиваете выручку каждый год. Вы уже занимаете 60% мощностей TSMC на N3-узле. По прогнозам — 86% в следующем году. Как вообще можно удваиваться, будучи большинством?

Дженсен спокоен как удав:

«Нет ни одного ограничения, которое длится дольше двух-трёх лет. Ни одного. CoWoS был проблемой — два года назад. Теперь нет. HBM-память была проблемой — теперь мейнстрим. Следующая проблема? Уже знаем, уже решаем»

И вот тут — мой любимый момент всего интервью. Дваркеш спрашивает: А что — самое сложное к масштабированию?

Дженсен не говорит «ASML», не говорит «EUV» или «упаковка чипов». Он говорит:

Сантехники. Электрики.

Потому что датацентры где-то надо строить физически. И этих ребят не напечатаешь на 3nm. Дженсен добавляет, что зовёт их на следующий GTC — без иронии, буквально.

Самое страшное, по его мнению — не дефицит кремния, а энергетическая политика. Нельзя реиндустриализировать Америку без энергии. Нельзя построить AI-фабрики без энергии. И это — единственный горизонт, который его реально беспокоит. Потому что чипы — решаемо. Энергосети — другая история.

TPU против GPU: честная дуэль или монолог победителя?

Google обучал Gemini на TPU. Anthropic тренирует Claude на TPU. TPU — это «тензорные процессинговые устройства», специализированные чипы для матричного умножения. И вопрос логичный: если 90% современного ИИ — это матричные умножения снова и снова, зачем вообще нужна гибкость GPU?

Дженсен отвечает вежливо, но смысл примерно такой: «Сравниваете несравнимое»

GPU — это не просто «тоже умеет матрицы». Это ускорительная вычислительная платформа. Молекулярная динамика, квантовая хромодинамика, обработка структурированных данных, рендеринг, физические симуляции — всё это живёт на GPU и никогда не переедет на TPU.

Но главный аргумент другой: программируемость = инновации.

Когда кто-то придумывает новую архитектуру нейросети — MoE, гибридный SSM, диффузию с авторегрессией — ему нужна гибкая платформа. Именно поэтому Blackwell в 50 раз эффективнее Hopper: не потому что транзисторы стали вдвое меньше (Moore's Law умер, мы помним), а потому что новые алгоритмы, новые математические трюки, новые архитектурные решения на гибком CUDA.

«TPU — как хорошая Cadillac. Едет ровно, никогда не быстро. GPU — как болид Формулы-1. Сто км/ч — любой справится. Но чтобы выжать максимум, нужна экспертиза»

На этот образ можно было бы обидеться, если бы он не был точным.

«Anthropic — это исключение, а не тренд»

Дваркеш осторожно заходит с другой стороны: Но Anthropic только что объявил многогигаваттный контракт с Broadcom и Google на TPU. Это 70% их вычислений...

Дженсен отвечает почти без паузы:

«Anthropic — уникальный случай, а не тренд. Без Anthropic — зачем вообще растёт TPU? Это 100% Anthropic. Без Anthropic — зачем растёт Trainium? Тоже 100% Anthropic»

И дальше — честный разбор собственной ошибки, что редко услышишь от CEO топ-компании.

Когда Anthropic только создавалась, им нужны были миллиарды инвестиций — не венчурных (VC никогда не дал бы $10B на AI-лабораторию), а стратегических. Google дал деньги. AWS дал деньги. В обмен — Anthropic использует их инфраструктуру.

Nvidia тогда была не в той позиции, чтобы сделать это. Дженсен признаётся: «Я не до конца понимал, что им нужна не просто выручка — им нужен был якорный инвестор на миллиарды». Это его личный «промах», как он выражается.

Вывод: сейчас Nvidia инвестирует в OpenAI ($30B по слухам) и Anthropic ($10B), поддерживает всех крупных разработчиков моделей — и намеренно не выбирает победителей. Потому что когда у Nvidia было 60 конкурентов в 3D-графике, сама Nvidia была бы последней в списке выживших.

Почему Nvidia не стала облаком

Логичный вопрос: Вы зарабатываете $60B в квартал. У вас дефицит GPU. Вы занимаете деньги неокладам CoreWeave, Nebius, Lambda. Почему просто не стать облаком самим?

Ответ — философия компании:

«Делай столько, сколько необходимо. Как можно меньше»

Nvidia осознанно не хочет конкурировать с AWS, Azure, GCP. Потому что если бы она стала облаком — она бы стала конкурентом своих главных клиентов. Вместо этого: поддержи CoreWeave появиться на свет, чтобы у мира было больше GPU-облаков.

Аналогия: Nvidia создала cuLitho — библиотеку для вычислительной литографии. Если бы не создала — никто бы не создал. Это звучит как хвастовство, но это просто факт о специфическом рынке.

Задача — строить экосистему. Задача — чтобы весь мир работал на американском технологическом стеке. Hyperscaler — это может сделать кто-то другой. А вот CUDA за 20 лет убыточной работы, NVLink, весь стек ускоренных вычислений — никто другой бы не потянул.

Главный спор: стоит ли продавать чипы Китаю?

Это — самая горячая часть разговора. Дженсен явно не согласен с текущей политикой экспортных ограничений, и он об этом говорит прямо.

Аргумент Дваркеша (дьявольский адвокат): Anthropic создал модель Mythos, которую они не публикуют, потому что она нашла тысячи критических уязвимостей в каждой крупной ОС и браузере. Включая баг в OpenBSD, которому 27 лет. Если у Китая будет такая модель с миллионами инстансов — это катастрофа

Аргумент Дженсена: У них уже есть всё необходимое

— Китай производит 60%+ мировых массовых чипов
— 50% AI-исследователей в мире — китайцы
— У них огромный избыток энергии
— У них призрачные датацентры, которые стоят пустые и готовые
— Huawei только что показал рекордный год по поставкам чипов
— 7nm = примерно Hopper. Сегодняшние модели тренируются на Hopper

«Если у тебя бесконечно дешёвая электроэнергия — тебе всё равно на производительность на ватт. Возьми в 4 раза больше чипов. Собери в суперкомпьютер через silicon photonics. Вот и всё»

На возражение про разрыв в пропускной способности памяти (HBM2 vs HBM3):

«Huawei — это сетевая компания. Они умеют соединять системы так, чтобы масштабироваться горизонтально»

На возражение про EUV (самые продвинутые чипы требуют EUV для производства):

«МоЙ главный аргумент такой: между Hopper и Blackwell — 50x разница в эффективности. Но в транзисторах — только 75% прирост за три года. Значит что? Архитектура важнее литографии. Отличная computer science может перебить gap в нодах»

Финальный удар Дженсена:

«Политика, которую вы защищаете, уже уничтожила американскую телекоммуникационную отрасль. Мы больше не контролируем собственные телекоммуникации. Уступить Китаю крупнейший рынок в мире ради одной компании, ради одного слоя из пяти — это не стратегия. Это узкомыслие»

И он договаривает до конца: «Сегодня 50% мировых AI-разработчиков в Китае работают на нашем стеке. Если мы их выдавим — они переключатся на Huawei. И через несколько лет, когда мы захотим экспортировать свои технологии на Ближний Восток, в Индию, Африку — там уже будет другой стандарт»

Это не наивный оптимизм. Это долгосрочный расчёт бизнесмена, который думает не в горизонте следующих выборов.

Почему одна архитектура, а не десять?

Последний вопрос звучит провокационно: У вас есть деньги и инженеры. Почему не делать параллельно Cerebras-style, Dojo-style, что-то без CUDA? Вдруг AI пойдёт другим путём?

Дженсен: «Мы могли бы. Просто не придумали ничего лучше того, что делаем»

Буквально. Они симулируют альтернативные архитектуры. Проверяют на моделях. Видят, что доказуемо хуже. И не делают.

Но есть один интересный поворот: Groq. Nvidia купила эту компанию и собирается втянуть её технологию в свой CUDA-экосистем — потому что теперь появился рынок «премиальных токенов». Если разработчику нужен невероятно быстрый ответ (например, AI-помощник в IDE), он готов платить больше за низкую задержку, даже если общий throughput ниже. Это новый сегмент рынка, которого два года назад не существовало.

Что это значит лично для тебя

Окей, это всё интересно на уровне «мировая экономика». Но что с этого простому человеку?

Первое: следующие несколько лет AI не замедлится. Дженсен называет конкретно: улучшение вычислительной эффективности идёт на 10-50x за поколение — не за счёт Moore's Law (он мёртв), а за счёт новых алгоритмов. Это значит, что модели будут становиться умнее быстро.

Второе: профессии не умрут так, как предсказывают дуумеры. Дженсен говорит прямо: «Десять лет назад говорили — не иди в радиологию, её заменит AI. Угадайте, кого сейчас не хватает? Радиологов». Разница между задачей (прочитать снимок) и работой (лечить пациента) — критическая.

Третье: агенты изменят не саму работу, а её масштаб. Сегодня один инженер — один набор инструментов. Завтра один инженер + сотня агентов = экспоненциально больший охват. Инструменты вроде Excel, Cadence, Synopsys — их не уберут, их запустят в тысяче параллельных копий.

Четвёртое: open source живёт. И будет жить. Дженсен говорит это без пафоса, как про закон физики: открытые модели нужны для безопасности AI, потому что если ты хочешь создать 1000 агентов-охранников вокруг одного умного агента — тебе нужен открытый код.

Пятое: выбор архитектуры в ближайшие годы — это выбор на десятилетие. Почему так много компаний сидит на CUDA? Не потому что нет альтернатив. А потому что экосистема — как x86 или ARM — меняется с огромной болью.

Короткое резюме для тех, кто торопится

  • Nvidia — не просто железо. Это операционная система для AI-индустрии.
  • CUDA = экосистема, сложившаяся за 20 лет. Это нельзя скопировать за год.
  • TPU хорош для Anthropic. Для всех остальных — GPU.
  • Bottleneck больше не HBM. Уже не CoWoS. Следующий — энергия.
  • Китайский вопрос — самый неоднозначный. Обе стороны правы в чём-то своём.
  • Moore's Law мёртв. Но архитекторы живы. И это важнее.

Теги

Персоны Дженсен Хуанг Jensen Huang Дваркеш Патель Dwarkesh Patel Дарио Амодеи Сэм Альтман Дилан Патель Илон Маск Ларри Эллисон

Компании Nvidia TSMC Google DeepMind Anthropic OpenAI AMD Intel Huawei ASML Micron SK Hynix Samsung CoreWeave Broadcom Groq xAI AWS Microsoft Azure Oracle Cloud Crusoe Nebius Lambda Labs Lumentum Coherent Synopsys Cadence Jane Street

Темы ИИ и национальная безопасность экспортные ограничения на чипы технологическая конкуренция США и Китай будущее профессий AGI AI safety open source AI цепочки поставок полупроводников реиндустриализация энергопотребление датацентров экосистема разработчиков венчурные инвестиции в AI-лаборатории AI-стартапы гиперскейлеры неокоды AI как слоёный пирог

Технологии GPU TPU CUDA NVLink HBM CoWoS EUV 7nm 3nm 2nm Blackwell Hopper Vera Rubin Feynman Silicon Photonics MoE SSM Transformer MLPerf InferenceMAX vLLM SGLang Triton PyTorch NeMo cuBLAS NCCL Spectrum-X LPDDR N3 node N2 node cuLitho double-sided probing

Возможные направления для дальнейших материалов DeepSeek и китайские AI-модели Anthropic Claude Mythos кибербезопасность в эпоху AI будущее радиологии и медицины AI-агенты и рынок труда квантовые вычисления молекулярная динамика вычислительная литография silicon photonics архитектура нейросетей 2025+ MoE-архитектуры inference vs training compute премиальные токены и сегментация рынка