Большие языковые модели (LLM) всё чаще используются в образовании, медицине, юриспруденции и бизнесе. Но их главный недостаток остаётся неизменным: склонность к «галлюцинациям». Под этим термином в ИИ-сообществе понимают выдачу моделями вымышленных или ошибочных сведений под видом правды. Эта проблема ставит под угрозу доверие к нейросетям в критически важных сферах. Однако российские учёные представили решение, способное кардинально изменить ситуацию. Научная группа из Новосибирского государственного университета (НГУ) при участии коллег из МГУ, БФУ им. И. Канта, МИСиС, ДВФУ и ИТМО разработала программную библиотеку RAGU (Retrieval-Augmented Graph Utility). Она позволяет значительно повысить точность и надёжность ответов LLM, снижая риск галлюцинаций за счёт интеграции графов знаний — структур, отражающих реальные связи между понятиями и фактами. Основное инновационное преимущество RAGU — в сочетании эффективности и экономичности. Вместо того чтобы полагаться на гигантские модели с де
Российские учёные разработали технологию для повышения достоверности ответов нейросетей
30 декабря 202530 дек 2025
52
3 мин