ChatGPT придумал исследование. Claude назвал несуществующий источник. Gemini дал неверную дату. Это не баги — это норма. Объясняю, что с этим делать. Знакомая ситуация: попросили нейросеть написать статью с цифрами — она написала. Уверенно, со ссылками, с датами. Вы публикуете. Через день кто-то в комментариях пишет, что такого исследования не существует. Вы идёте проверять. Не существует. Нейросеть не врёт в человеческом смысле. Она не знает, что говорит неправду. Она генерирует правдоподобный текст — и иногда этот текст оказывается выдумкой, которая выглядит как факт. В индустрии это называют «галлюцинациями». На практике — это мина замедленного действия в каждом тексте с цифрами, именами и датами. Языковые модели не ищут информацию в интернете в момент ответа — если только это не заявлено явно. Они извлекают паттерны из обучающих данных и конструируют ответ, который звучит правильно. Если в обучающих данных был похожий текст — модель воспроизводит его структуру. Если не было — доду
Нейросети врут красиво. Вот как их поймать за руку
ВчераВчера
43
3 мин