Найти в Дзене
Social Mebia Systems

Новая революционная архитектура Google: как AI обретает долгосрочную память

В 2025 году долгосрочная память стала ключевым элементом развития больших языковых моделей (LLM), переходя из разряда инженерных «заплаток» в основу их интеллектуальных возможностей. Недавняя статья Google «Nested Learning: The Illusion of Deep Learning Architectures» представила новый фреймворк HOPE, который призван решить проблему долговременного запоминания в больших моделях. Почему долгосрочная память так важна? Сегодня AI легко генерирует красивые ответы на вопросы, но настоящая сложность — чтобы спустя неделю или смену задачи модель помнила ключевые детали предыдущих диалогов и обновляла персонализированную память. Только тогда AI перестает быть одноразовым инструментом и превращается в «помощника», способного к постоянной работе и развитию. Ключевое отличие — краткосрочные способности модели позволяют ей связно говорить, а долгосрочная память определяет, насколько она может быть надежным и полезным ассистентом. Архитектура Titans и эволюция долгосрочной памяти В конце 2024 года

В 2025 году долгосрочная память стала ключевым элементом развития больших языковых моделей (LLM), переходя из разряда инженерных «заплаток» в основу их интеллектуальных возможностей.

Недавняя статья Google «Nested Learning: The Illusion of Deep Learning Architectures» представила новый фреймворк HOPE, который призван решить проблему долговременного запоминания в больших моделях.

Почему долгосрочная память так важна?

Сегодня AI легко генерирует красивые ответы на вопросы, но настоящая сложность — чтобы спустя неделю или смену задачи модель помнила ключевые детали предыдущих диалогов и обновляла персонализированную память. Только тогда AI перестает быть одноразовым инструментом и превращается в «помощника», способного к постоянной работе и развитию.

Ключевое отличие — краткосрочные способности модели позволяют ей связно говорить, а долгосрочная память определяет, насколько она может быть надежным и полезным ассистентом.

Архитектура Titans и эволюция долгосрочной памяти

В конце 2024 года Google представил архитектуру Titans, где механизм self-attention трансформера определен как система краткосрочной памяти, а отдельный нейронный модуль отвечает за долгосрочную память, которая хранит и вызывает ключевую информацию вне контекстного окна. Это фактически переосмыслило «мозг» больших моделей.

В 2025 году на основе Titans появились новые разработки, включая многомасштабную память и интеграцию долгосрочной памяти в рабочие процессы интеллектуальных агентов. Теперь модели не просто соревнуются в размере контекстного окна или количестве параметров, а в том, кто лучше и стабильнее запоминает, кто умеет «думать» и «запоминать» как человек.

-2

Новая парадигма: память как опыт, а не просто текст

Ранее долгосрочная память сводилась к хранению текстов в векторных базах данных и их выборке (RAG — retrieval-augmented generation). Сейчас же память рассматривается как активный участник процесса рассуждения, влияющий на решения и поведение модели.

Google в ноябре 2025 года представил бенчмарк Evo-Memory и фреймворк ReMem, которые проверяют способность моделей извлекать опыт из последовательных задач и применять его в будущем. Это уже не просто диалоговая память, а фундамент для постоянного развития интеллектуальных агентов.

Китайский подход: MiniMax, MemAgent и DeepSeek

В Китае также активно развиваются технологии долгосрочной памяти. MiniMax в начале года выпустил открытую модель с линейным вниманием, способную обрабатывать контексты в миллионы токенов. Это позволяет модели «видеть» больше информации сразу, снижая необходимость частых обращений к внешней памяти.

MemAgent от ByteDance и Технологического университета Цинхуа использует обучение с подкреплением, чтобы модель училась выбирать, что стоит запомнить, а что забыть, превращая память в активный процесс принятия решений, а не просто хранилище.

DeepSeek, напротив, делает ставку на внешние системы памяти, предоставляя разработчикам гибкость в выборе и комбинировании решений, исходя из конкретных задач.

Итоги и перспективы

2025 год стал годом переосмысления роли долгосрочной памяти в больших моделях. Она перестала быть просто «внешним жестким диском» и превратилась в неотъемлемую часть архитектуры и рабочего процесса интеллектуальных агентов, влияя на их решения и поведение.

В будущем ключевым отличием моделей станет не только масштаб и скорость, но и зрелость, управляемость и способность к устойчивой эволюции памяти. Только модели, которые смогут эффективно запоминать и управлять своей памятью, будут востребованы для долгосрочного использования и получения все более серьезных полномочий.

Хотите создать уникальный и успешный продукт? СМС – ваш надежный партнер в мире инноваций! Закажи разработки ИИ-решений, LLM-чат-ботов, моделей генерации изображений и автоматизации бизнес-процессов у профессионалов.

ИИ сегодня — ваше конкурентное преимущество завтра!

Тел. +7 (985) 982-70-55

E-mail sms_systems@inbox.ru

Сайт https://www.smssystems.ru/razrabotka-ai/