Сомнению также подверглись заявления по поводу ресурсов, затраченных на обучение универсальной большой языковой модели DeepSeek V3, которая лежит в основе чат-бота. Разработчики утверждают, что потратили на этот процесс всего 5,6 миллиона долларов, использовав чуть больше двух тысяч чипов Nvidia. Однако в реальности эта сумма может быть гораздо выше. Стартап DeepSeek и хедж-фонд High-Flyer, которому он принадлежит, имеет доступ к десяткам тысяч графических процессоров Nvidia, пишет Financial Times со ссылкой на сотрудника аналитической компании SemiAnalysis Дилана Пателя. Эти ресурсы, вероятно, использовали для обучения V3 и ее предшественниц (свою первую ИИ-модель DeepSeek выпустил еще в ноябре 2023-го). «DeepSeek потратила более 500 миллионов долларов на графические процессоры за всю историю компании, — отметил Патель. — Несмотря на то, что их процесс обучения был очень эффективным, он потребовал масштабных экспериментов и тестов». Власти США тоже усомнились, что заявления разработчи
DeepSeek остается одним из самых популярных приложений в мире. Но им недовольны во многих странах (а в одной даже заблокировали)
5 февраля 20255 фев 2025
1
2 мин