Найти в Дзене
PromtScout

🧠📈 LLM без потолка контекста: что придумали в MIT

В MIT представили рекурсивный фреймворк, который позволяет языковым моделям работать с контекстами до 10 миллионов токенов — без радикального роста затрат памяти и вычислений. Звучит как очередной «хак», но на самом деле это это прикольная идея, изменить то, как модели читают и понимают большие объёмы данных. Ключевая идея проста: модель больше не пытается «держать всё в голове сразу». Вместо этого контекст разбивается на фрагменты, которые обрабатываются рекурсивно — с сохранением промежуточных представлений и повторным их использованием. По сути, это попытка приблизить LLM к человеческому способу работы с большими текстами: мы тоже читаем, обобщаем, возвращаемся и уточняем, а не помним всё слово в слово. Почему это важно: — Длинные документы (кодовые базы, логи, научные архивы) становятся реальным, а не маркетинговым сценарием. — Контекст перестаёт быть узким горлышком — фокус смещается с «сколько токенов» на «как организовано мышление модели». — Меньше зависимости от экстремально

🧠📈 LLM без потолка контекста: что придумали в MIT

В MIT представили рекурсивный фреймворк, который позволяет языковым моделям работать с контекстами до 10 миллионов токенов — без радикального роста затрат памяти и вычислений. Звучит как очередной «хак», но на самом деле это это прикольная идея, изменить то, как модели читают и понимают большие объёмы данных.

Ключевая идея проста: модель больше не пытается «держать всё в голове сразу». Вместо этого контекст разбивается на фрагменты, которые обрабатываются рекурсивно — с сохранением промежуточных представлений и повторным их использованием. По сути, это попытка приблизить LLM к человеческому способу работы с большими текстами: мы тоже читаем, обобщаем, возвращаемся и уточняем, а не помним всё слово в слово.

Почему это важно:

— Длинные документы (кодовые базы, логи, научные архивы) становятся реальным, а не маркетинговым сценарием.

— Контекст перестаёт быть узким горлышком — фокус смещается с «сколько токенов» на «как организовано мышление модели».

— Меньше зависимости от экстремально больших моделей: архитектурные приёмы начинают конкурировать с простым наращиванием параметров.

Пока это исследовательская работа, а не готовый продукт. Но именно такие работы определяют будущее LLM.