сложной возни с сервером. У сервиса есть десктопная версия для Windows, macOS и Linux, а сама команда прямо пишет, что приложение задумано как local by default – модели, документы и чаты могут храниться локально на вашем устройстве. 🤗 ✋ ➕ ✖ 🤜 🫕 🐋 💰 ⚫ Что в этом особенно ценно для работы. Можно подключать локальные модели, запускать RAG по своим документам, работать с агентами и не зависеть от постоянных походов в облако. AnythingLLM поддерживает локальные провайдеры вроде Ollama и LM Studio, а в десктопной версии можно даже импортировать свои GGUF-модели. То есть сценарий очень практичный – поднимаете локальную модель, загружаете свою базу знаний, встраиваете документы в RAG и получаете агента, который отвечает уже на вашем контексте, а не скачет между случайными ответами. По документации, для локальной векторной базы у AnythingLLM есть встроенный LanceDB, а сами документы и эмбеддинги могут оставаться внутри приложения. Мне особенно нравится, что это удобно для двух задач сра
Наткнулся на AnythingLLM – это приложение, которое можно поставить прямо на свой компьютер и собрать себе локального ИИ-помощника без
7 апреля7 апр
1 мин