Вы уже понимаете, насколько это важно. Исследователи показали: масштабировать контекст LLM проще, чем думали Команда представила Recursive Language Models (RLMs) - новый метод инференса, позволяющий моделям рекурсивно разбирать длинные промпты, как в среде REPL. RLM делит огромный ввод на части и обрабатывает их пошагово, без ограничений по длине контекста. Для пользователя это выглядит как обычный вызов модели, но внутри она рекурсивно вызывает себя для промежуточных вычислений. На тесте OOLONG RLM на базе GPT-5-mini превзошёл GPT-5 на 110% при 132k токенах и стоил дешевле. На BrowseComp-Plus RLM-модели обработали до 10 млн токенов без потери качества, опередив схемы с поиском и ретривером. Главная цель RLM - устранить “context rot”, когда модели “забывают” длинные диалоги. Рекурсивный подход может стать ключом к практически бесконечному контексту без сложных обходных решений.
Вы уже понимаете, насколько это важно
16 октября 202516 окт 2025
1
~1 мин