7 апреля 2026 команда ByteDance Seed и Peking University опубликовала исследование "In-Place Test-Time Training" — способ научить LLM обновлять свои знания прямо в процессе генерации ответа. 📍 Проблема: знания LLM "заморожены" Обычная LLM работает так: обучилась на огромном датасете → веса зафиксированы → используется без изменений. Проблема: после обучения модель не может "выучить" что-то новое прямо в диалоге. Если вы загружаете 100-страничный техдок, она загоняет его в контекст, но не "запоминает" — просто держит в оперативной памяти. Важные детали теряются, особенно из середины документа. Старые попытки решить это (Test-Time Training) требовали перестройки архитектуры и переобучения модели с нуля — слишком дорого. ⚡️ Решение: используй то, что уже есть ByteDance нашли способ не добавлять новые слои, а переиспользовать MLP-блоки, которые есть в каждом Transformer. Принцип простой: - В MLP-блоке три матрицы весов - Одну из них (W_down) сделали "быстрой" — она обновляется на ле