Как сделать так чтобы ИИ-ассистент помнил всё между сессиями
Главная проблема при работе с LLM над реальными проектами — отсутствие памяти. Каждая новая сессия начинается с нуля: нужно заново объяснять архитектуру, контекст, что уже сделано. Это тратит токены и время. Андрей Карпата описал паттерн под названием LLM Wiki — способ решить эту проблему. Идея в том, что LLM не просто отвечает на вопросы, а ведёт и обновляет персональную базу знаний: структурированный markdown-файлы с описанием проектов, стиля, решений. Один раз прочитал страницу — сразу в контексте. Как устроена реализация на практике: Хранилище в Obsidian. Папка с markdown-файлами: по одной...