Китайский стартап DeepSeek представил новую языковую модель v3.1 — мощную разработку с 685 миллиардами параметров, которая способна конкурировать с последними достижениями OpenAI. Релиз состоялся всего через две недели после выхода GPT-5 и сразу вызвал интерес в экспертном сообществе. В отличие от многих аналогов, DeepSeek v3.1 использует архитектуру mixture-of-experts: модель активирует только те блоки, которые необходимы для конкретного запроса. Это существенно снижает вычислительные затраты, делая систему более привлекательной для разработчиков, которым важны и мощность, и экономичность. По словам аналитика Бена Диксона, ключевой особенностью модели стал гибридный подход, сочетающий быструю генерацию и продвинутую логику. Это позволяет DeepSeek эффективно работать в самых разных задачах, включая разработку приложений и интеллектуальных агентов. Запуск модели состоялся на китайской платформе WeChat и в сообществе Hugging Face. Несмотря на то что DeepSeek пока не занял прочных позиций
Китайская DeepSeek представила модель v3.1 и усилила давление на OpenAI после выхода GPT-5
24 августа 202524 авг 2025
69
2 мин