За год чат-боты стали давать вдвое больше ложных ответов в среднем. Как с этим бороться?
Я почитываю комментарии на vc.ru и reddit, чтобы понимать отношение людей и боли при использовании ИИ. За последнее время все чаще говорят, что LLM стали больше врать. И исследования это подтверждают. Сегодня расскажу о методах, которые помогут избежать галлюцинаций и повысить точность ответов. 1. Предоставить в промпте все нужные знания и дать больше контекста. Я уже рассказывал в этом посте про случай, когда после скидывания документации, нейросеть перестала врать, да, банальной документации по языку программирования (задача была тесно связана с его синтаксисом)...