Добавить в корзинуПозвонить
Найти в Дзене

Нейросеть DeepSeek выпустила флагманскую модель V4 — бесплатно для всех

Китайская компания DeepSeek представила флагманскую языковую модель V4 в двух версиях — Pro и Flash. Обе построены на архитектуре Mixture of Experts (MoE) и доступны бесплатно в веб-чате и мобильном приложении DeepSeek, где режим Instant соответствует V4-Flash, а режим Expert — V4-Pro. Разработчики могут получить доступ к моделям через API по цене от 0,2 рубля за миллион токенов для Flash-версии при кешированном вводе. Модели опубликованы на Hugging Face под лицензией MIT.
DeepSeek-V4-Pro содержит 1,6 трлн параметров, из которых при ответе на запрос активируются 49 млрд, а V4-Flash имеет 284 млрд параметров с активацией 13 млрд. Обе модели поддерживают контекстное окно в 1 млн токенов — этого объёма достаточно, чтобы за один раз обработать текст, эквивалентный трилогии «Три тела». Разработчики внедрили новую гибридную механизм внимания CSA (Compressed Sparse Attention), который в режиме 1 млн токенов сокращает вычислительные затраты V4-Pro до 27% по сравнению с предыдущей версией V3.
   DeepSeek
DeepSeek

Китайская компания DeepSeek представила флагманскую языковую модель V4 в двух версиях — Pro и Flash. Обе построены на архитектуре Mixture of Experts (MoE) и доступны бесплатно в веб-чате и мобильном приложении DeepSeek, где режим Instant соответствует V4-Flash, а режим Expert — V4-Pro. Разработчики могут получить доступ к моделям через API по цене от 0,2 рубля за миллион токенов для Flash-версии при кешированном вводе. Модели опубликованы на Hugging Face под лицензией MIT.
DeepSeek-V4-Pro содержит 1,6 трлн параметров, из которых при ответе на запрос активируются 49 млрд, а V4-Flash имеет 284 млрд параметров с активацией 13 млрд. Обе модели поддерживают контекстное окно в 1 млн токенов — этого объёма достаточно, чтобы за один раз обработать текст, эквивалентный трилогии «Три тела». Разработчики внедрили новую гибридную механизм внимания CSA (Compressed Sparse Attention), который в режиме 1 млн токенов сокращает вычислительные затраты V4-Pro до 27% по сравнению с предыдущей версией V3.2, а использование KV-кеша — до 10%. Для оптимизации обучения применён Muon-оптимизатор и метод гипер-соединений mHC.
По данным внутренних тестов DeepSeek, V4-Pro превосходит существующие модели с открытым кодом в агентных задачах, математике, программировании и естественных науках. В бенчмарке Apex Shortlist модель показала результат 90,2%, в Codeforces — рейтинг 3206, а в SWE Verified (тест на решение задач из GitHub) — 80,6% наравне с ведущими закрытыми моделями. Разработчики признают, что по общему объёму знаний о мире V4-Pro уступает закрытой модели Gemini-3.1-Pro от Google, а общее отставание от передовых закрытых моделей оценивается в 3–6 месяцев. V4-Flash, в свою очередь, предлагает более высокую скорость ответа за счёт меньшего числа активируемых параметров, демонстрируя сравнимую с Pro-версией эффективность на простых задачах, но уступая в сложных агентных сценариях.