🚀 DeepSeek-V3.2: как открытая модель догнала GPT-5 📅 2 декабря 2025 года команда DeepSeek-AI представила исследование "DeepSeek-V3.2: Pushing the Frontier of Open Large Language Models", доказывающее: открытые модели могут конкурировать с лучшими закрытыми системами. 📍 В чём была проблема Последние месяцы открытые модели начали отставать от GPT-5 и Claude по трём направлениям: медленная работа с длинными текстами, слабые рассуждения на сложных задачах и неумение пользоваться инструментами как настоящий ИИ-агент. ⚡️ Три решения учёных 1. Умное внимание вместо полного перебора Представьте библиотеку на 128 000 книг. Обычная модель листает все подряд. DeepSeek научили выбирать сразу 2048 самых нужных — работает в разы быстрее без потери точности. Технически это называется Sparse Attention: модель использует "быстрый индексатор" (маленькая нейросеть), который за один проход определяет, какие части текста действительно важны для ответа. 2. Серьёзное обучение на ошибках DeepSeek пот