Университет Массачусетс в Амхерсте (UMass Amherst) и стартап Mendel провели совместное исследование, посвященное выявлению галлюцинаций искусственного интеллекта в медицинских обзорах, созданных с помощью больших языковых моделей (LLM). Исследование фокусировалось на двух моделях — GPT-4 и Llama-3 — и оценивало, насколько точно они обобщают и передают информацию из исходных клинических заметок. Галлюцинации искусственного интеллекта — задокументированное явление и представляет собой уверенные ответы ИИ, которые не подтверждаются данными обучения или вымышленные ответы, не имеющие отношения к действительности. Например, использование ИИ в поисковой системе Google вызывало абсурдные ответы, такие как рекомендации «есть один маленький камень в день» или «добавлять нетоксичный клея на пиццу». Однако в случае медицинских обзоров эти галлюцинации могут подорвать надежность и точность медицинских записей. В ходе исследования были выделены пять категорий галлюцинаций в медицинских обзорах: ин
Исследование выявило галлюцинации ИИ в сгенерированных медицинских обзорах
8 августа 20248 авг 2024
2 мин