Специалисты разработали инструмент, способный отсеивать ложные ответы больших языковых моделей. Новые алгоритмы автоматизируют проверку достоверности информации, которую выдают интеллектуальные ассистенты. Проблема так называемых галлюцинаций — внешне убедительных, но фактически неверных ответов — давно преследует разработчиков нейросетей. Решение предложили учёные МГППУ. Они создали алгоритмы и программное обеспечение, которые позволяют оценивать корректность контента, генерируемого языковыми моделями, а также автоматизировать составление запросов под заданные аннотации. Как пояснили в пресс-службе университета, система использует два ключевых алгоритма. Первый отвечает за подбор оптимального промпта (запроса), второй — за верификацию правдоподобности утверждений, сгенерированных ИИ. Инновационность подхода заключается в математической формализации смысла. Тексты запросов и ответов помещаются в специальные метрические пространства, где расстояние между ними определяется через семантич
«Детектор лжи» для нейросетей: российские ученые научились вычислять, когда ИИ придумывает факты
13 февраля13 фев
163
1 мин