Исследование Vectara показало, что чат-боты с искусственным интеллектом могут выдумывать информацию в 3-27% случаев. Нейросети запрограммированы быть удивительно убедительными, что затрудняет определение правдивости их ответов. Специалисты «Яндекса» отмечают, что при обучении языковых моделей ставится задача создавать не фактически верные ответы, а такие, которые будут максимально похожими на человеческие. Почему нейросети начинают нас обманывать и как с этим бороться, узнали у инженера-программиста «Рексофт» Егора Цибина. Некачественное обучение и ограниченный объем данных — основные причины, по которым нейросети могут «галлюцинировать». К косвенным причинам можно отнести отсутствие однозначности у нейросетей. Чтобы предотвратить такие ошибки, разработчикам следует использовать большие объемы данных и принципы защитного программирования. Также существуют практики, которые могут улучшить качество ответов нейросети, например, через поощрение правильных ответов. Во избежание ошибок при и