Прочитал статью от AIRI, которая флешбэкнула меня в май 2024го, когда я писал диплом. В чем с-но дело: Проблемы c LLM 1. Отсутствие интерпретируемости LLMs дают ответы, но на самом деле в них часто нет надежного подтверждения. 2. Галлюцинации Модели иногда генерируют неверную информацию, особенно когда нет строгой структуры данных для проверки. 3. Ограниченные знания Модели не имеют доступ к приватным документам и проектам, поэтому могут пропускать специфическую информацию. На другом полюсе стоят графы знаний — интерпретируемые и надежные структуры, которые компенсируют слабые стороны LLM. (можете поизучать wikidata - огромный граф знаний на основе вики) Как можно объединить два подхода для максимального эффекта? 🔗 Интеграция LLM и графов знаний Мой диплом как раз исследовал эту тему: я строил graph RAG (Retrieval-Augmented Generation) с попыткой интегрировать знания LLM и графов. Это непростая задача, и для неё требуется уметь строить графы на основе приватных данных. Но как?
Prompt Me One More Time: A Two-Step Knowledge Extraction Pipeline with Ontology-Based Verification
31 декабря 202531 дек 2025
1 мин