Искусственный интеллект не любит говорить, что он чего-то не знает или в чём-то не разбирается. Он совершенно уверенно даёт ответы — вот только они содержат ложную информацию. Это явление называют галлюцинациями ИИ (писали о них в феврале). «Галлюцинировать» даже стало словом 2023 года. Многие учёные разрабатывают варианты решения этой проблемы — об одном из них мы поговорим в этом посте. Несколько исследователей из Стэнфордского университета создали своего чат-бота, который, по их оценке, фактически точен в 97,9% случаев. Разработанную ими систему они назвали WikiChat, и её главная особенность заключается в том, что она проводит фактчекинг генерируемого ответа по Википедии, прежде чем показать его пользователю. Особенно остро проблема галлюцинаций, по мнению учёных, проявляется в двух случаях. Во-первых, ИИ часто галлюцинируют на непопулярные темы, по которым их базы знаний не очень обширны. Во-вторых, чат-боты выдают не слишком точные ответы на запросы о событиях, которые произошли н