Ребята, выдыхайте. Пока мы тут гадали, когда OpenAI соизволит выкатить что-то новое, китайцы из DeepSeek молча, без пафосных презентаций и концертов, перевернули игру. Вышел DeepSeek V3.2. И это не просто "еще одна нейронка". Это монстр на 685 миллиардов параметров, который они — внимание — выложили в открытый доступ. Да, полностью. С весами, с "рецептом" приготовления и технической документацией. Я почитал отчеты, посмотрел тесты и, честно говоря, у меня мурашки. Если верить цифрам, эта штука не просто догнала, она в некоторых моментах превосходит мифический GPT-5 и Gemini 3.0 Pro. Почему это реально круто? Обычно американские компании (не будем показывать пальцем, но вы поняли) держат свои технологии под семью замками. Мы видим только "черный ящик": ввел запрос — получил ответ. Как оно работает? Секрет фирмы. DeepSeek пошли другим путем. Они сказали: "Вот вам всё. Учитесь". Главная фишка V3.2 — это даже не размеры, а то, как умно она построена. Они внедрили технологию DeepSeek Spars
Синий Кит вернулся, и он только что съел GPT-5 на завтрак. Обзор DeepSeek V3.2
14 декабря 202514 дек 2025
3
3 мин