В 2025 году долгосрочная память стала ключевым элементом развития больших языковых моделей (LLM), переходя из разряда инженерных «заплаток» в основу их интеллектуальных возможностей. Недавняя статья Google «Nested Learning: The Illusion of Deep Learning Architectures» представила новый фреймворк HOPE, который призван решить проблему долговременного запоминания в больших моделях. Почему долгосрочная память так важна? Сегодня AI легко генерирует красивые ответы на вопросы, но настоящая сложность — чтобы спустя неделю или смену задачи модель помнила ключевые детали предыдущих диалогов и обновляла персонализированную память. Только тогда AI перестает быть одноразовым инструментом и превращается в «помощника», способного к постоянной работе и развитию. Ключевое отличие — краткосрочные способности модели позволяют ей связно говорить, а долгосрочная память определяет, насколько она может быть надежным и полезным ассистентом. Архитектура Titans и эволюция долгосрочной памяти В конце 2024 года
Новая революционная архитектура Google: как AI обретает долгосрочную память
9 декабря 20259 дек 2025
4
3 мин