Добавить в корзинуПозвонить
Найти в Дзене

DeepSeek V4: спокойный разговор о модели, которая не пытается быть первой во всём

В мире, где каждый второй анонс начинается со слов «революция» и «прорыв», появление DeepSeek V4 ощущается почти как глоток трезвости. Это не самый большой релиз года. Не самый громкий. И — что удивительно для индустрии, помешанной на бенчмарках, — он даже не пытается быть таковым. Но именно в этом и кроется его настоящий интерес. Давайте разберёмся без лишнего энтузиазма и скептической зевоты. 24 апреля 2026 года китайская компания DeepSeek официально представила четвёртое поколение своей флагманской модели — DeepSeek V4 Preview. Это не просто «ещё одна нейросеть». Это развитие линейки, которая полтора года назад перевернула рынок моделью R1, доказав, что можно соревноваться с OpenAI и Anthropic, не имея бесконечного бюджета и доступа к самым передовым чипам. Релиз включает две версии, и это важно понимать сразу: DeepSeek-V4-Pro — флагманская модель с 1,6 триллиона параметров, из которых на каждый запрос активируется 49 миллиардов. Мощная, но при этом довольно экономная. DeepSe
Оглавление

В мире, где каждый второй анонс начинается со слов «революция» и «прорыв», появление DeepSeek V4 ощущается почти как глоток трезвости. Это не самый большой релиз года. Не самый громкий. И — что удивительно для индустрии, помешанной на бенчмарках, — он даже не пытается быть таковым. Но именно в этом и кроется его настоящий интерес. Давайте разберёмся без лишнего энтузиазма и скептической зевоты.

Часть 1. Что это вообще такое

24 апреля 2026 года китайская компания DeepSeek официально представила четвёртое поколение своей флагманской модели — DeepSeek V4 Preview. Это не просто «ещё одна нейросеть». Это развитие линейки, которая полтора года назад перевернула рынок моделью R1, доказав, что можно соревноваться с OpenAI и Anthropic, не имея бесконечного бюджета и доступа к самым передовым чипам.

Релиз включает две версии, и это важно понимать сразу:

DeepSeek-V4-Pro — флагманская модель с 1,6 триллиона параметров, из которых на каждый запрос активируется 49 миллиардов. Мощная, но при этом довольно экономная.

DeepSeek-V4-Flash — облегчённая версия с 284 миллиардами параметров, где на запрос активируется всего 13 миллиардов. Быстрая и максимально доступная.

Обе модели поддерживают контекст в миллион токенов. Чтобы представить масштаб: это около 750 тысяч слов, или примерно два добротных романа вроде «Войны и мира», которые V4 может охватить в одном запросе, без разделения на части. Это уже само по себе немало, но дело не только в объёме.

Архитектурно V4 — не просто раздутая версия предшественника. Инженеры DeepSeek переработали систему внимания, внедрив так называемую Hybrid Attention Architecture — гибридный механизм, который сочетает сжатое разреженное внимание (CSA) и глубоко сжатое внимание (HCA). Если отбросить терминологию: модель научилась гораздо эффективнее работать с длинными текстами. В цифрах: по сравнению с предыдущей версией (V3.2) количество вычислений на один токен сократилось на 73%, а объём кэш-памяти — на 90%. И это не просто сухие цифры — это разница между моделью, которая может работать на практике, и моделью, которая остаётся красивой демонстрацией в лабораторных условиях.

Особо стоит отметить, что V4 — чисто текстовая модель. Никакой мультимодальности, работы с изображениями или видео в ней нет. Многие ждали этого, но в DeepSeek, видимо, решили сначала довести до ума текстовые и кодовые способности, прежде чем браться за картинки. Решение спорное, но объяснимое: ресурсы любой компании ограничены, а распыляться на всё сразу — верный способ не преуспеть ни в чём.

Обе модели распространяются по лицензии MIT, то есть открыто. Веса доступны на Hugging Face, API работает, документация в открытом доступе. Назвать это «народным ИИ» пока сложно — для запуска Pro-версии локально потребуется серверный парк, но сам факт открытости выгодно отличает DeepSeek от многих конкурентов.

Часть 2. Сильные и слабые стороны

Теперь — самое интересное: что у V4 получается хорошо, а что откровенно хромает. Без рекламных преувеличений и предвзятости.

Сильные стороны

Экономика, которую сложно игнорировать. Цены на API вызывают почти неловкость за конкурентов: Flash-версия обходится в 1 юань (~$0,14) за миллион входных токенов, Pro — 12 юаней (~$1,74). Для сравнения, схожие по возможностям модели от OpenAI или Anthropic могут стоить в 15–50 раз дороже. Конечно, DeepSeek тоже не благотворительная организация — компания открыто говорит, что сейчас ограничена в вычислительных мощностях и что после запуска новых кластеров на Huawei Ascend 950 во второй половине 2026 года цены могут ещё снизиться. Но пока это выглядит как серьёзный демпинг, который заставляет конкурентов нервничать — и, возможно, пересматривать собственные ценники.

Код и агентные задачи. В программировании V4-Pro показывает результаты, которые ещё год-два назад считались недостижимыми для открытых моделей. На платформе Codeforces модель набирает 3206 баллов, обходя GPT-5.4 (3168) и Gemini 3.1 Pro (3052). В тесте LiveCodeBench результат 93.5 — выше, чем у Claude Opus 4.6 (88.8). В задачах на агентное поведение (когда модель должна не просто ответить, а составить план и выполнить его за несколько шагов) V4-Pro и вовсе занимает первое место среди всех открытых моделей, обходя Kimi K2.6, GLM-5.1 и MiniMax-M2.7. Иными словами, это уже вполне рабочий инструмент для разработчиков, а не просто демонстрационная версия «светлого будущего».

Открытость. Да, повторимся: MIT-лицензия. Полные веса, технический отчёт, возможность кастомизации под свои задачи. Для разработчиков это бесценно. Для индустрии в целом — важный сигнал о том, что модель способна развиваться не только в пределах одной компании.

Эффективность работы с длинным контекстом. Сокращение KV-кэша на 90% — это не маркетинговая уловка, а реальное инженерное достижение. Именно оно делает экономически оправданной работу с миллионным контекстом. Аналитики SemiAnalysis назвали это «гораздо более впечатляющим, чем недавняя работа Google TurboQuant». Комплимент, конечно, со скрытой колкостью, но от этого не менее показательный.

Слабые стороны

Сырая производительность — не абсолютный топ. V4-Pro набирает 52 балла в индексе Artificial Analysis — это на 10 баллов больше, чем V3.2, и это действительно второе место среди открытых моделей. Но Kimi K2.6 показывает 54 балла, а лучшие закрытые модели (GPT-5.5, Claude Opus, Gemini 3.1 Pro) — 57–60. Отставание от фронтира — примерно 3–6 месяцев. Сами разработчики DeepSeek честно признают это в сопроводительном документе, что само по себе вызывает уважение. Но факт остаётся фактом: это не «модель №1 в мире».

Галлюцинации. Пожалуй, самый тревожный момент. У V4-Pro уровень галлюцинаций достигает 94%, у Flash — 96%. Это означает, что в ситуациях, когда модель не знает точного ответа, она почти гарантированно «придумывает» правдоподобную, но ложную информацию. Для разговорного ИИ это неудобно. Для профессионального применения — рискованно. Для агентных систем, которые принимают решения без постоянного контроля человека, — откровенно опасно.

Только текст. В 2026 году, когда конкуренты активно осваивают мультимодальность, отсутствие поддержки изображений и аудио выглядит как минимум старомодно. Часть сообщества откровенно разочарована этим фактом — некоторые разработчики на Hugging Face прямо называют V4 «скорее V3.5» именно из-за отсутствия визуальных возможностей. Проблема в том, что текстовые данные — это лишь часть картины мира, которую модель пытается осмыслить. Без визуального опыта её понимание реальности остаётся неполным.

Высокие требования к «железу». При всём уважении к открытости, запустить V4-Pro локально — задача не для обычного пользователя. Даже Flash-версию не получится запустить на среднестатистическом компьютере с 32 ГБ оперативной памяти. Это модель для облачных провайдеров и крупных компаний, а не для энтузиастов на домашнем ПК.

Вместо выводов

DeepSeek V4 не пытается быть всем для всех. Это модель с чётко очерченной нишей: доступный, эффективный, открытый инструмент для тех, кому важны работа с кодом, агентные задачи и длинные контексты, и кто готов мириться с отсутствием мультимодальности и повышенной склонностью к домысливанию. Она не затмевает фронтир, но уверенно держится на расстоянии вытянутой руки от него — и при этом стоит в разы дешевле.

Будет ли этого достаточно, чтобы повторить успех R1? Вряд ли. Но достаточно ли этого, чтобы оставаться одним из самых интересных проектов в мире открытого ИИ? Определённо.

---

`#DeepSeek` `#DeepSeekV4` `#ИскусственныйИнтеллект` `#OpenSourceAI` `#ТехноБлог` `#AI_Review` `#КитайскийAI` `#БудущееИИ` `#LLM` `#Нейросети2026`