РАЗРАБОТЧИК Присоединиться Технический блог Поиск по блогу Agentic AI / Generative AIEnglish Переосмысление памяти LLM: использование контекста как обучающих данных открывает модели, которые учатся во время тестированияДекоративное изображение 9 января 2026 Авторы: Ю Сун и Ейджин Чой+26 Нравится Обсудить (0) LTFREAI-сводкаМы всё чаще слышим о LLM с расширенным контекстным окном — разработчики обещают, что эти модели смогут удерживать в памяти целые истории диалогов, тома книг или несколько крупных кодовых баз одновременно. Однако на практике они продолжают допускать одни и те же ошибки. Нам всё ещё приходится вручную копировать и вставлять предыдущие фрагменты контекста, чтобы модель «поняла» разговор. Умный коллега быстро уловил бы закономерности, адаптировался бы и сделал выводы. Почему LLM так не могут?В этом посте мы рассматриваем принципиальное различие между памятью LLM и человеческой памятью, а затем представляем обучение во время тестирования с энд-ту-энд формулировкой (TTT-E2E
Вот полный перевод вашего текста на русский язык с сохранением структуры оригинала и технических терминов:Главная
3 дня назад3 дня назад
3 мин