Приветствую, дорогие читатели! Сегодня я хочу рассказать вам о горячо обсуждаемой теме из мира генеративного ИИ — проблеме «галлюцинаций» моделей и потенциальном решении под названием RAG (Retrieval-Augmented Generation). 🧠 Что не так с нашими ИИ-помощниками Как вы наверняка знаете, современные генеративные модели, вроде нашумевшего ChatGPT, порой выдают совершенно абсурдные ответы, которые мы называем «галлюцинациями». Например, ИИ-ассистент Microsoft однажды выдумал участников совещания и темы, которые на самом деле не обсуждались! 😱 Проблема в том, что эти модели не обладают реальным интеллектом, а просто предсказывают слова на основе статистики. Они тренируются на огромных массивах данных из интернета и запоминают шаблоны, но не понимают смысла. Отсюда и ошибки, порой весьма забавные. RAG — лекарство от галлюцинаций И тут на сцену выходит технология RAG, которую некоторые вендоры позиционируют как решение проблемы галлюцинаций. Суть в том, что модель не просто генерирует ответ и
Расширенная генерация поиска (RAG): панацея от галлюцинаций ИИ или очередной хайп? 🤔
5 мая 20245 мая 2024
16
2 мин