Добавить в корзинуПозвонить
Найти в Дзене
Цифровая автономия

Китайские нейросети обогнали GPT-4. Вот почему Америка об этом молчит

Откройте рейтинг LMArena в ноябре 2025-го. Первые три места — все китайские. Ни одной американской. Это не прогноз. Это факт, который признали исследователи Калифорнийского университета в Беркли. Америка потеряла монополию на ИИ. И почти никто об этом не говорит. DeepSeek создали за $5,58 млн. OpenAI тратит миллиарды. Когда это узнали, акции Nvidia упали на $600 млрд за три дня. Рынок понял: вся парадигма затрат была неправильной. Kimi K2 стала самой скачиваемой моделью за день после релиза. Qwen 3 от Alibaba заняла третье место. GLM-4.5 обогнал Claude 4 Sonnet. Hunyuan-T1 от Tencent практически сравнялась с o1 от OpenAI. Это не исключение. Это закономерность. Kimi K2: триллион параметров, активны 32 миллиарда. Контекст — 128 тысяч токенов. Модель полностью открыта. DeepSeek-V3: 685 миллиардов параметров, активны 37 миллиардов. MMLU — 90,8% (выше, чем у большинства западных аналогов). Показывает пошаговое мышление для сложных задач. Qwen 3: 235 миллиардов параметров, активны 22 миллиар
Оглавление

Откройте рейтинг LMArena в ноябре 2025-го. Первые три места — все китайские. Ни одной американской. Это не прогноз. Это факт, который признали исследователи Калифорнийского университета в Беркли.

Америка потеряла монополию на ИИ. И почти никто об этом не говорит.

Что произошло

DeepSeek создали за $5,58 млн. OpenAI тратит миллиарды. Когда это узнали, акции Nvidia упали на $600 млрд за три дня. Рынок понял: вся парадигма затрат была неправильной.

Kimi K2 стала самой скачиваемой моделью за день после релиза. Qwen 3 от Alibaba заняла третье место. GLM-4.5 обогнал Claude 4 Sonnet. Hunyuan-T1 от Tencent практически сравнялась с o1 от OpenAI.

Это не исключение. Это закономерность.

Цифры, которые разрушают миф

Kimi K2: триллион параметров, активны 32 миллиарда. Контекст — 128 тысяч токенов. Модель полностью открыта.

DeepSeek-V3: 685 миллиардов параметров, активны 37 миллиардов. MMLU — 90,8% (выше, чем у большинства западных аналогов). Показывает пошаговое мышление для сложных задач.

Qwen 3: 235 миллиардов параметров, активны 22 миллиарда. Контекст — 1 млн токенов. Поддерживает 119 языков. Apple выбрала её для Apple Intelligence в Китае вместо своей.

Hunyuan-T1: MMLU Pro — 87,2 балла (DeepSeek 84, GPT-4.5 86,1). Math-500 — 96,2 балла. Стоимость вдвое ниже DeepSeek.

GLM-4.5: SWE-bench 64,2% против 48,6% у GPT-4.1. AIME24 — 91%. На 15% меньше ресурсов, чем Claude 4 Sonnet.

Doubao: $0,14 за млн токенов. В 50 раз дешевле GPT-4o. Производительность как Claude 3.5 Sonnet.

MiniMax: 4 млн токенов контекста. В 31 раз больше, чем GPT-4o.

Это не аномалия. Это система.

Почему Америка проиграла

OpenAI считала, что нужны миллиарды и максимальное количество параметров. Китайцы пошли другим путём: оптимизировали архитектуру, внедрили MoE (смесь экспертов), научили модели предсказывать несколько токенов вперёд, использовали менее точные чипы.

Результат? Лучше. Дешевле. Быстрее.

И самое убийственное для Америки: большинство китайских моделей открыты. Любой разработчик скачивает исходный код бесплатно. Нет лицензионных ограничений. Нет подписки.

OpenAI защищает патенты и накручивает цены. Китайцы раздают исходный код.

Масштаб произошедшего

В октябре 2024-го китайских моделей не было в топ-10 LMArena. В октябре 2025-го они занимают первые три места. За год.

Всемирная конференция по ИИ 2025: Китай выпустил 1509 больших языковых моделей. Лидер в мире.

Даже Дженсен Хуанг из Nvidia (потерял $600 млрд) приехал в Пекин и признал: «Это научное и инженерное искусство высшего уровня». Враг не может отрицать поражение.

Что это означает

Монополия OpenAI закончилась. Барьер входа рухнул. Теперь передовой ИИ может создавать любой стартап с умной командой.

Для разработчиков: свобода без лицензионных ограничений.

Для компаний: выбор вместо монополии. Китайские модели часто лучше и всегда дешевле.

Для инвесторов: парадигма сломана. Нужны не миллиарды, а инженерия.

Система сломана. Новая уже работает. Китайцы выигрывают.