13 подписчиков
Галлюцинации ИИ угрожают научной достоверности — исследование.
Особенность генеративного ИИ "выдумывать" информацию называют галлюцинациями. Обученные на данных из интернета LLM не могут гарантировать достоверности ответов, считают исследователи.
Наборы данных могут содержать ложные утверждения, мнения и неточную информацию. Кроме этого, избыточное доверие людей к чат-ботам может усугубить проблему.
В науке особенно важно опираться на достоверные данные. Чтобы избежать галлюцинаций ИИ, ученые рекомендуют использовать LLM в качестве "переводчика с нулевым результатом". Это значит, что пользователи должны предоставлять алгоритму соответствующие данные и просить преобразовать их, а не полагаться на модель как на источник знаний.
Таким образом, становится проще проверить корректность результата.
Ученые не отрицают, что LLM помогут в организации научного процесса. Однако они призвали сообщество более ответственно подходить к использованию ИИ.
Около минуты
22 ноября 2023