В MIT представили рекурсивный фреймворк, который позволяет языковым моделям работать с контекстами до 10 миллионов токенов — без радикального роста затрат памяти и вычислений. Звучит как очередной «хак», но на самом деле это это прикольная идея, изменить то, как модели читают и понимают большие объёмы данных. Ключевая идея проста: модель больше не пытается «держать всё в голове сразу». Вместо этого контекст разбивается на фрагменты, которые обрабатываются рекурсивно — с сохранением промежуточных представлений и повторным их использованием. По сути, это попытка приблизить LLM к человеческому способу работы с большими текстами: мы тоже читаем, обобщаем, возвращаемся и уточняем, а не помним всё слово в слово. Почему это важно: — Длинные документы (кодовые базы, логи, научные архивы) становятся реальным, а не маркетинговым сценарием. — Контекст перестаёт быть узким горлышком — фокус смещается с «сколько токенов» на «как организовано мышление модели». — Меньше зависимости от экстремально