На эфире в клубе MFS обсудили одну из главных болей при разработке AI-продуктов — галлюцинации моделей. Особенно это критично, если вы пилите B2B-решение, например, автоматизируете сбор тендерной документации. Выдуманная цифра или несуществующий пункт требований в готовом КП может стоить клиенту контракта. Архитектура нейросетей устроена так, что в ней нет встроенного стоп-крана: ничто не мешает модели выдумать страницу, которой не существует, или вставить цитату из какой-то параллельной вселенной. На научном языке борьба с этим называется grounding («приземление» на факты). Вот как можно реализовать надежную защиту дешево и сердито, чтобы закрыть примерно 90% проблем с галлюцинациями: 1. Требовать пруфы. Просим модель для самых критичных полей (например, цен или жестких требований) указывать точный источник: из какого документа и с какой страницы она взяла эти данные. Пусть обязательно покажет примерную цитату исходника. 2. Подключить простой алгоритмический поиск. Сама по себе пр