Учёные из Массачусетского технологического института (MIT) разработали ИИ-модель Recursive Language Models (RLM), которая решает проблему ограниченного контекстного окна в традиционных больших языковых моделях (LLM), позволяя работать с массивами информации, превышающими традиционную вместимость в десятки и сотни раз. — Архитектура: Recursive Language Models (RLM) — Ключевая особенность: динамическая и рекурсивная навигация по контексту вместо традиционной памяти — Преимущества: возможность работать с объёмными документами, сложными структурированными данными и большими архивами — Применение: юридическая практика, программирование, аналитика, обработка научных публикаций — Результат: снижение рисков искажений фактов и ошибок, связанных с «потерей» контекста — Реализация: открытая библиотека и минимальный эталонный код для упрощения внедрения технологии — Перспективы: потенциальный значимый этап в эволюции нейросетевых архитектур 👉 Tech leaks в Telegram | Дзен