Найти тему
13 подписчиков

Галлюцинации ИИ угрожают научной достоверности — исследование.


Особенность генеративного ИИ "выдумывать" информацию называют галлюцинациями. Обученные на данных из интернета LLM не могут гарантировать достоверности ответов, считают исследователи.

Наборы данных могут содержать ложные утверждения, мнения и неточную информацию. Кроме этого, избыточное доверие людей к чат-ботам может усугубить проблему.

В науке особенно важно опираться на достоверные данные. Чтобы избежать галлюцинаций ИИ, ученые рекомендуют использовать LLM в качестве "переводчика с нулевым результатом". Это значит, что пользователи должны предоставлять алгоритму соответствующие данные и просить преобразовать их, а не полагаться на модель как на источник знаний.

Таким образом, становится проще проверить корректность результата.

Ученые не отрицают, что LLM помогут в организации научного процесса. Однако они призвали сообщество более ответственно подходить к использованию ИИ.

Галлюцинации ИИ угрожают научной достоверности — исследование.  Особенность генеративного ИИ "выдумывать" информацию называют галлюцинациями.
Около минуты