Найти в Дзене
ТехноLOG

DeepSeek-V3-0526 — намекают на революцию, как всегда

Скромная страница документации на Unsloth случайно (или «случайно») слила инфу: выходит новая версия модели DeepSeek-V3-0526, и якобы она на уровне GPT-4.5 и Claude 4 Opus. Для тех, кто не следит: это примерно как сказать, что из гаража в Шэньчжэне выехала Тесла, которая обгоняет Porsche Taycan. И да, она open-source. Сейчас страница удалена, публикацию объяснили «основанной на догадках». Очень убедительно. Особенно если учесть, что в тексте уже были указания, как запускать модель локально с использованием Dynamic 2.0 quantization — технологии сжатия весов, делающей запуск LLM возможным даже на потребительском железе. Если DeepSeek-V3-0526 действительно на уровне GPT-4.5, то это: Тогда это очередной case of "open-source Hype Inflation Syndrome" — когда на каждой неделе появляется «новый GPT-4», который потом оказывается LLaMA с наклейкой. Пока ждём официального релиза. Но если утечка реальна — это исторический момент для всего AI-сообщества. И да, скорее всего, мы получим лучшую open-s
Оглавление

Скромная страница документации на Unsloth случайно (или «случайно») слила инфу: выходит новая версия модели DeepSeek-V3-0526, и якобы она на уровне GPT-4.5 и Claude 4 Opus. Для тех, кто не следит: это примерно как сказать, что из гаража в Шэньчжэне выехала Тесла, которая обгоняет Porsche Taycan. И да, она open-source.

Сейчас страница удалена, публикацию объяснили «основанной на догадках». Очень убедительно. Особенно если учесть, что в тексте уже были указания, как запускать модель локально с использованием Dynamic 2.0 quantization — технологии сжатия весов, делающей запуск LLM возможным даже на потребительском железе.

Что известно:

  1. DeepSeek-V3-0526 — это второе обновление линейки V3. Предыдущая версия V3.0 уже была конкурентоспособна, но не на уровне GPT-4.5. Если новая версия действительно дотягивает, это открывает важную веху: open-source догнал закрытых гигантов.
  2. Упоминается поддержка Dynamic 2.0 quantization — вероятно, речь идёт о 4-битной квантизации с адаптивным масштабированием (аналог QLoRA + AWQ), что снижает требования к памяти и делает возможным запуск на 1×24–48GB GPU или 2×24GB 4090.
  3. Unsloth — известный проект, ориентированный на оптимизацию обучения open-source моделей (напр., LLaMA, Mistral) и интеграцию в lightweight окружения. Публикация такой статьи у них просто так — маловероятна.
  4. Упоминание о производительности на уровне GPT-4.5 и Opus 4 — громкое заявление. Особенно если учесть, что даже лучшие open-source модели (Mixtral, DBRX, OpenChat) пока объективно не догнали GPT-4 в zero-shot reasoning и complex instruction tasks.

Если это правда

Если DeepSeek-V3-0526 действительно на уровне GPT-4.5, то это:

  • конец гегемонии закрытых API;
  • начало локального ИИ-суверенитета;
  • возможность запускать SOTA-модель без подписки, цензуры, throttling и слежки;
  • серьёзный вызов Hugging Face, Meta и даже OpenAI — если DeepSeek выложит всё в raw-формате (веса, tokenizer, код).

А если нет?

Тогда это очередной case of "open-source Hype Inflation Syndrome" — когда на каждой неделе появляется «новый GPT-4», который потом оказывается LLaMA с наклейкой.

В сухом остатке

Пока ждём официального релиза. Но если утечка реальна — это исторический момент для всего AI-сообщества. И да, скорее всего, мы получим лучшую open-source LLM в мире. На этой неделе. Бесплатно.

Вопрос только один: почему у китайцев получается делать это первыми, а все остальные — просто обсуждают «AI safety»?