Сталкивались? Нейросеть пишет статью про вас и вдруг вставляет цитату, которой вы не говорили. Или ссылается на ваше «исследование», которого нет. Выглядит так, будто вы сами себя выставили дураком. И убрать это сложно. Но можно снизить риски. Вот мой опыт. Почему ИИ это делает Модели не хранят ваши тексты. Они предсказывают следующее слово по вероятности, а не по фактам. Как говорит доцент МАИ Дмитрий Сошников, «галлюцинации заложены в природу языковых моделей». Полностью вылечить нельзя, не убив креативность. Но снизить — реально. Как проверить, врёт ли модель Я делаю так. Задаю один вопрос разными словами. Если ответы расходятся — нестабильность. Смотрю на источники: ссылка на журнал, которого нет, или на выдуманного учёного? Это галлюцинация. Ещё признак — слишком уверенный тон без конкретики. Лучше перепроверить сразу. Промпты, которые работают Мои рабочие инструкции. Берите. «Приведи только проверяемые факты и укажи источник». Заставляет модель включить внутреннюю проверку