DeepSeek выпустила две новые модели: DeepSeek-V4-Pro и DeepSeek-V4-Flash – они получили улучшенные возможности рассуждения и производительности. Версии различаются размером и профилем производительности. Обе модели поддерживают контекстное окно до одного миллиона токенов и построены на архитектуре «смесь экспертов». Они работают как в стандартном режиме, так и в режиме мышления, где интенсивность можно регулировать с помощью параметра reasoning_effort. По заявлениям разработчиков, DeepSeek-V4-Pro превосходит все доступные модели с открытым исходным кодом в математике, науке и программировании. В задачах общего знания она немного уступает Gemini-Pro-3.1, но опережает другие открытые модели. Также отмечаются улучшенные агентные возможности. Внутренние тесты показали, что пользовательский опыт превосходит Claude Sonnet 4.5, а качество ответов сопоставимо с Opus 4.6 в стандартном режиме. Уже сейчас V4-Pro используется как основная модель для задач программирования. Технически DeepSeek-V4 и
DeepSeek представила бесплатные ИИ-модели V4-Pro и V4-Flash, сопоставимые с Claude Opus 4.6
ВчераВчера
3
1 мин