Нейросеть уверенно рассказала про книгу, которой не существует. Или выдумала закон. Или назвала неправильную дату. Почему так происходит и как с этим жить? Галлюцинация — когда ИИ уверенно выдаёт ложную информацию.
Он не врёт специально. Он просто не умеет говорить «не знаю». 💡 Аналогия: Представьте студента на экзамене. Он не знает ответ, но молчать стыдно. Поэтому он начинает уверенно фантазировать. Звучит убедительно, но ответ неправильный. ИИ работает так же. Он всегда даёт ответ, даже если данных недостаточно. Что спросили | Что ответил ИИ | Правда
«Автор книги Х» | Уверенно назвал имя | Такой книги не существует
«Закон о ...» | Цитата со ссылкой | Закона нет, ссылка выдумана
«Когда родился Y?» | Дата | Дата неверная
«Адрес компании Z» | Улица, дом | Адреса не существует 1. ИИ не понимает мир. Он не «знает» факты — он угадывает, какое слово должно идти следующим.
2. Нет механизма «не знаю». Модель обучена отвечать. Молчание = ошибка для неё.
3. Данные устарели. Модель об