OpenAI расширяет свою инфраструктуру GPU-решений за счёт аренды TPU (Tensor Processing Units) у Google Cloud, снижая зависимость от NVIDIA и диверсифицируя «облачные» мощности для задач инференса моделей. С момента запуска ChatGPT в конце 2022 года OpenAI стремительно росла, что вызвало нарастающий дефицит вычислительных ресурсов. До этого компания в основном опиралась на GPU NVIDIA, размещённые в дата-центрах Microsoft Azure по эксклюзивному соглашению (2019 — январь 2025) и на договоры с CoreWeave. Однако непрерывные запросы на инференс (работу уже обученных моделей) обходятся дороже, чем периодическое обучение моделей. Поэтому OpenAI искала более выгодные по стоимости решения и начала тестировать TPU Google v6e («Trillium») для задач инференса ChatGPT и других продуктов. TPU (Tensor Processing Unit) — специализированные чипы, созданные Google для ускорения операций с тензорами, которые лежат в основе нейросетей. В отличие от универсальных GPU, TPU заточены под матричные вычисления,