10,2 тыс подписчиков
👀Что такое галлюцинации в больших языковых моделях? Какие методы решения вы знаете ?
▪БЯМ (Большие языковые модели) или LLM (Large Language Models) стали популярными в обработке естественного языка. Они используются для перевода, генерации текста и ответов на вопросы. Эти модели обучаются на больших наборах данных и могут создавать тексты, похожие на тексты, написанные человеком. Известные примеры LLM - ChatGPT и GPT-4 от OpenAI.
Однако у таких моделей есть проблемы с «галлюцинациями» и доступом к актуальной информации. Галлюцинации проявляются как генерация текста, не соответствующего реальности, с нарушениями фактологии. Нейросеть может придумывать детали, факты, имена или события, которые не существуют в реальности.имеют отношения к реальности.
▪Для решения данной проблемы и уменьшения вероятности галлюцинаций, исследователи предлагают несколько методов:
1. Использование дополнительной модели для поиска информации в документах, с последующей передачей этой информации в генеративную нейросеть.
2. Обучение моделей на бОльшем количестве данных, а также создание специальных (фактологических) наборов данных.
3. Использование обучения с подкреплением, на основе оценок поставленных людьми, как это делают в OpenAI (RLHF).
4. Соединение LLM с моделью мира (это наиболее сложный и перспективный подход, но в данной статье мы его не будем рассматривать из-за объемности).
1 минута
28 июня 2023
124 читали