Обсидиана. Выкатывают вот такое интересное решение. Буду внимательно щупать. Если нормально заработает на 4b или 6b модели. qwen, то замечательно заработает на ноуте даже без дискретки, только памяти нужно будет 32 гига. И тогда вот тебе и ассистент и база знаний. Прям сразу по полной встроится БЯМ в воркфлоу. LLM Wiki - персональная база знаний, которая формируется сама собой. LLM читает ваши документы, создает структурированную вики-систему и поддерживает ее в актуальном состоянии. Возможности: - двухэтапная цепочка обработки информации: LLM сначала анализирует данные, а затем генерирует вики-страницы с отслеживанием источника и инкрементальным кэшированием. - граф знаний 4-Signal: модель релевантности с прямыми связями, пересечением источников, моделью Адамика-Адара и сходством типов. - Louvain Community Detection: автоматическое обнаружение кластеров знаний с оценкой сплоченности. - Graph Insights: неожиданные связи и пробелы в знаниях с помощью глубокого исследования
В то время как я думаю как с одной стороны к Обсидиану прикрутить LLM для формирования RAG, а с другой рабочие документы для наполнения базы
13 апреля13 апр
1
1 мин