Добавить в корзинуПозвонить
Найти в Дзене
YAinvest AI

RAG сломан? Как новая нейросеть EdgeQuake на Rust строит графы знаний и спасает локальный ИИ от галлюцинаций

Привет, энтузиасты технологий! На связи автор канала «YAinvest AI». Если вы следите за миром искусственного интеллекта, то наверняка слышали про RAG (поиск с дополненной генерацией). Это когда вы «скармливаете» нейросети свои документы (PDF, тексты), чтобы она отвечала на вопросы по ним. Но давайте будем честны: классический RAG сейчас сломан. Когда вы задаете сложный вопрос, например: "Как эта концепция связана с той?", обычный ИИ часто выдает мусор. Почему? Потому что он просто ищет похожие куски текста по ключевым словам, абсолютно не понимая связи и структуру между идеями. Но разработчики не сидят сложа руки. На GitHub появился новый open-source проект EdgeQuake, который решает эту проблему радикально. Я изучил документацию и тесты энтузиастов, и готов рассказать, почему это настоящий прорыв для домашних серверов. 🧠 Что такое EdgeQuake и при чем тут графы знаний? Вместо того чтобы просто резать ваш документ на куски и сохранять их как векторы, EdgeQuake делает кое-что поумнее. Он

Привет, энтузиасты технологий! На связи автор канала «YAinvest AI».

Если вы следите за миром искусственного интеллекта, то наверняка слышали про RAG (поиск с дополненной генерацией). Это когда вы «скармливаете» нейросети свои документы (PDF, тексты), чтобы она отвечала на вопросы по ним. Но давайте будем честны: классический RAG сейчас сломан.

Когда вы задаете сложный вопрос, например: "Как эта концепция связана с той?", обычный ИИ часто выдает мусор. Почему? Потому что он просто ищет похожие куски текста по ключевым словам, абсолютно не понимая связи и структуру между идеями. Но разработчики не сидят сложа руки. На GitHub появился новый open-source проект EdgeQuake, который решает эту проблему радикально. Я изучил документацию и тесты энтузиастов, и готов рассказать, почему это настоящий прорыв для домашних серверов.

🧠 Что такое EdgeQuake и при чем тут графы знаний?

Вместо того чтобы просто резать ваш документ на куски и сохранять их как векторы, EdgeQuake делает кое-что поумнее. Он написан на сверхбыстром языке Rust и реализует продвинутый алгоритм LightRAG.

Система пропускает текст через LLM и извлекает оттуда сущности (людей, организации, концепции) и связи между ними, выстраивая полноценный граф знаний. Для хранения данных используются сразу две технологии поверх PostgreSQL: pgvector для векторного поиска и Apache AGE для хранения графов.

В результате ИИ перестает быть «слепым поисковиком». У него появляется 6 различных режимов запроса. Например:

  • Локальный (Local): ищет конкретные связи между соседями по графу.
  • Глобальный (Global): анализирует целые тематические кластеры («сообщества»), чтобы отвечать на абстрактные вопросы о главных темах документа.
  • Гибридный (Hybrid): объединяет оба подхода, выдавая максимально точный и глубокий ответ.

🚀 Rust решает: Скорость и PDF-вижн

Переход на язык Rust и асинхронную архитектуру (Tokio) дал сумасшедший прирост производительности. По тестам разработчиков, гибридные запросы обрабатываются в 5 раз быстрее классического RAG (менее 200 мс), а сама система выдерживает более 1000 одновременных пользователей.

Но настоящая киллер-фича подъехала в недавнем обновлении — PDF LLM Vision Pipeline. Обычные парсеры часто ломают таблицы или колонки при чтении PDF. EdgeQuake теперь умеет отправлять страницы документа как картинки в мощные мультимодальные модели (вроде GPT-4o, Claude или Gemini), чтобы ИИ визуально «прочитал» сканы, сложные графики и многоколоночную верстку. А если что-то пойдет не так, система автоматически переключится на классический текстовый парсер (pdfium).

⚙️ Как запустить это локально (и не наступить на грабли)

Для любителей приватности отличные новости: EdgeQuake великолепно работает полностью локально в связке с Ollama. Вы не платите ни копейки за API и ваши данные не улетают на сервера корпораций.

Запуск максимально прост благодаря Docker. Выполняете одну команду quickstart.sh, выбираете Ollama как провайдера, и скрипт сам скачивает нужные контейнеры (API, базу данных и красивый веб-интерфейс на React).

Но внимание, лайфхак от тех, кто уже тестировал сборку! Если у вас Ollama установлена на самом ПК (хосте), а EdgeQuake крутится в Docker-контейнере, по умолчанию база не сможет достучаться до ИИ, и выдаст ошибку. Чтобы это починить, в настройках соединения (переменная OLLAMA_HOST) нужно указать http://host.docker.internal:11434 вместо привычного localhost. После этого магия заработает: система переварит документ, построит красивую визуализацию графа прямо в браузере и будет готова отвечать на самые каверзные вопросы.

🏁 Подводим итоги

EdgeQuake доказывает, что эра «глупого» поиска по тексту уходит. Использование графов знаний вместе с векторными базами данных — это следующий шаг в эволюции персональных ИИ-ассистентов. Причем шаг очень быстрый, оптимизированный и доступный для запуска даже на домашнем сервере.

А вы уже пробовали разворачивать RAG-системы для своих личных документов или рабочих баз знаний? Сталкивались с тем, что ИИ не понимает контекста? Пишите в комментариях, давайте обсудим этот тренд!

Обязательно подписывайтесь на канал «YAinvest AI», чтобы не пропустить свежие разборы серверного железа, тесты локальных LLM и главные инсайды из мира нейросетей. Дальше будет только интереснее!