Китайский разработчик систем искусственного интеллекта DeepSeek совершил технологический прорыв. Согласно данным инсайдеров, готовящаяся к выходу модель DeepSeek R2 демонстрирует впечатляющие характеристики - 512 петафлопс вычислительной мощности при работе с форматом FP16. Это стало возможным благодаря использованию кластеров чипов Huawei Ascend 910B и собственной распределенной системы обучения компании.
Особого внимания заслуживает эффективность решения - при 82% утилизации оборудования система обеспечивает 91% от производительности кластеров NVIDIA A100, но при этом сокращает стоимость обучения на 97,3%. Инфраструктурную поддержку проекта осуществляют ведущие китайские технологические компании, включая Tuowei Information и Sugon, предоставляющие жидкостное охлаждение для серверных стоек мощностью до 40 кВт на блок.