Найти тему
10,2 тыс подписчиков

👀Что такое галлюцинации в больших языковых моделях? Какие методы решения вы знаете ?


▪БЯМ (Большие языковые модели) или LLM (Large Language Models) стали популярными в обработке естественного языка. Они используются для перевода, генерации текста и ответов на вопросы. Эти модели обучаются на больших наборах данных и могут создавать тексты, похожие на тексты, написанные человеком. Известные примеры LLM - ChatGPT и GPT-4 от OpenAI.

Однако у таких моделей есть проблемы с «галлюцинациями» и доступом к актуальной информации. Галлюцинации проявляются как генерация текста, не соответствующего реальности, с нарушениями фактологии. Нейросеть может придумывать детали, факты, имена или события, которые не существуют в реальности.имеют отношения к реальности.

▪Для решения данной проблемы и уменьшения вероятности галлюцинаций, исследователи предлагают несколько методов:

1. Использование дополнительной модели для поиска информации в документах, с последующей передачей этой информации в генеративную нейросеть.

2. Обучение моделей на бОльшем количестве данных, а также создание специальных (фактологических) наборов данных.

3. Использование обучения с подкреплением, на основе оценок поставленных людьми, как это делают в OpenAI (RLHF).

4. Соединение LLM с моделью мира (это наиболее сложный и перспективный подход, но в данной статье мы его не будем рассматривать из-за объемности).

1 минута
124 читали