DeepSeek выкатили V3.2‑Exp — нейронка для длинных текстов на стероидах Фишка — распределённое внимание: модель обрабатывает длинные контексты до в 64 раза быстрее и при этом ест на 30–40% меньше памяти. Обучение тоже выходит экономнее примерно на 50%. Что это меняет: — быстрее разбирать документы/логи и длинные треды; — дешевле гонять промпты на больших контекстах; — меньше железа — больше задач. Если цифры подтвердятся бенчмарками, у «тяжёлых» LLM появится нервный сосед по лавке. Китайцы снова давят газ в пол. Будете под это перестраивать пайплайны или подождёте реальных тестов? #Techtaim
DeepSeek выкатили V3.2‑Exp — нейронка для длинных текстов на стероидах
30 сентября 202530 сен 2025
~1 мин