Если ты хоть раз пользовался ChatGPT, ты наверняка ловил момент, когда он уверенно выдумывает что-то несуществующее.
Например, ссылается на несуществующую книгу или придумывает цитату, которой никогда не было. И вот ты сидишь, смотришь на это и думаешь: “Серьёзно? Он же звучал так умно!” 😅 Давай разберёмся — почему ИИ “галлюцинирует” и говорит ерунду с таким умным видом. В мире искусственного интеллекта “галлюцинацией” называют момент,
когда модель выдаёт ложную информацию,
но делает это уверенно и красиво. 📍 Пример:
Ты спрашиваешь: “Кто написал роман Песнь звёздного ветра?”
А ИИ отвечает: “Автор — Джонатан Филдинг, известный британский писатель.”
Звучит убедительно. Проблема в том, что ни романа, ни автора не существует. Так вот — это и есть галлюцинация. Главная причина проста:
ИИ не ищет информацию, он генерирует текст. Он не лезет в интернет и не сверяется с Википедией.
Он просто “угадывает”, какое слово логично поставить следом,
чтобы ответ выглядел правдоподобным. 📚