«ChatGPT может допускать ошибки. Проверьте созданную ИИ информацию» — это по-прежнему актуальное предупреждение можно прочитать под полем ввода подсказки самого известного в мире чат-бота с искусственным интеллектом.
Изображение из открытых источниковФейки, неточности, и т. д. по-прежнему являются самой большой проблемой для генеративного искусственного интеллекта, когда дело доходит до завоевания доверия людей. Эти так называемые галлюцинации, особенно в рабочей среде, являются важной причиной не использовать ChatGPT и его аналоги.
Vectara, стартап из Пало-Альто, разработал модель для измерения частоты галлюцинаций с помощью моделей большого языка (LLM). Модель оценки галлюцинаций (HEM) Vectara оценивает, как часто LLM вводит галлюцинации при резюмировании документа. Рейтинг обновляется и расширяется за счет новых LLM, поскольку, с одной стороны, языковые модели постоянно совершенствуются или изменяются, а с другой стороны, на рынок выходят новые поставщики языковых моделей.
Лидером является OpenAI с GPT-4, за ним следуют Llama 2 и модель от Cohere, канадского стартапа в области искусственного интеллекта. По сравнению с OpenAI, Anthropic явно отстает от Claude 2, который фактически считается одним из важнейших претендентов на лидерство, и Palm 2 от Google, показавшего худшие результаты в рейтинге. А вот модель Pi от Inflection AI отсутствует в рейтинге.
Галлюцинации — это действительно серьезные ошибки, которые могут привести к проблемам для компаний, если они будут использовать сгенерированные тексты. Vectara определил галлюцинации следующим образом: Большие ошибки, когда вместо ответа на вопрос конечного пользователя генеративная модель полностью выходит из-под контроля и потенциально может привести к повреждению изображения.
Генеративная система опирается на свои богатые знания и воспроизводит на своей продукции произведения, защищенные авторским правом.
Более тонкие и трудные для обнаружения ошибки, когда модель позволяет себе вольность в ответе, например, вводя «факты», не основанные на реальности. Конкретные отклонения из-за данных обучения.