Обычно всё происходит так: AI-лаборатории заранее делятся новыми моделями с Nvidia и AMD, чтобы те оптимизировали софт под своё железо. Так формируется стандарт: модель → оптимизация → лучше всего работает на американских GPU. DeepSeek пошёл другим путём. Перед релизом V4: - код не дали Nvidia и AMD - ранний доступ на несколько недель получили китайские производители, включая Huawei Что это значит? DeepSeek фактически делает ставку на то, чтобы их модели: - работали лучше на локальном железе - ускорили развитие китайских AI-чипов - снизили зависимость от американской экосистемы Но есть интересный нюанс. По словам американского чиновника, последняя модель DeepSeek всё же обучалась на Nvidia Blackwell в материковом Китае. То есть стратегия выглядит так: - тренируемся на лучшем доступном железе - оптимизируемся под свою инфраструктуру - формируем собственный стандарт Это уже не просто конкуренция моделей. Это борьба экосистем: - AI-модели - чипы - софт - инфраструктура И главный