Часть 1 Галлюцинации возникают, когда модели не хватает данных, а ответ нужен сейчас. Пользователи же воспринимают это либо как «нейросети бесполезны, все врут, понять ничего не могут», либо принимают галлюцинации за истину и не проверяют информацию Можно ли с этим что-то сделать? Можно! Лечится это не более «умным» вопросом или огромным промптом, а как бы переключением режима в начале чата, то есть дополнением промпта и использованием техники, речь о которой пойдет ниже Chain of prompts - это прием, используя который пользователь задает нейросети не один «умный» вопрос, а ведет её по короткой цепочке шагов: сначала запрещает угадывать, потом проверяет ответ, уточняет детали и так далее Давайте попробуем с вами попрактиковаться: 1️⃣ Сначала одно сообщение с правилами Ты один раз говоришь нейросети, как ей себя вести 2️⃣ Потом обычный, бытовой вопрос Про выбор, сомнение, решение, объяснение, помощь – все, что хотите узнать Промпты-режимы (можете выбрать один или объединить их):