Китайский стартап DeepSeek привлёк внимание технологического мира заявлением о крайне низком потреблении вычислительных ресурсов для разработки своего передового продукта R1. Эта модель может конкурировать с o1 от OpenAI, несмотря на то, что её обучение якобы обошлось всего в $6 млн и задействовало 2048 графических процессоров. Однако аналитическая фирма SemiAnalysis выяснила, что компания, стоящая за DeepSeek, потратила на оборудование $1,6 млрд и располагает парком из 50 000 графических процессоров Nvidia Hopper. Согласно отчету SemiAnalysis, DeepSeek располагает крупной вычислительной инфраструктурой, включающей около 50 000 графических процессоров Hopper, в том числе 10 000 H800 и 10 000 более мощных H100, а также другие устройства H20. Эти ресурсы распределены по нескольким площадкам и используются для таких целей, как обучение ИИ, исследования и финансовое моделирование. Общие капитальные вложения компании в серверы составляют $1,6 млрд, а операционные расходы оцениваются в $944
Китайский стартап DeepSeek заявляет о низком потреблении ресурсов для модели R1, но аналитики утверждают обратное
3 февраля 20253 фев 2025
2 мин