Чат-бот Google Bard теперь будет помогать пользователям выявлять неточные утверждения в своих ответах, сгенерированных искусственным интеллектом, что решает текущую проблему недостоверности. Подобно чат-боту с искусственным интеллектом ChatGPT, Bard часто предоставляет ответы на безупречном английском языке, которые выдержаны в авторитетном тоне, но иногда могут приводить к фактически неверным утверждениям.
Чтобы решить эту проблему, Bard вводит функцию "двойной проверки ответа", отмеченную красочным логотипом Google, о чем объявил менеджер Google Джек Кравчик в Маунтин-Вью. Эта функция выделяет части ответа Барда зеленым цветом, указывая области, в которых искусственный интеллект уверен. В нем также отмечены отрывки, в которых Бард определил онлайн-источники, которые могут оспаривать или в которых отсутствуют соответствующие источники (выделены оранжевым цветом).
В случаях, когда поиск Google не позволяет найти соответствующий контент, чат-бот может выдать предупреждение, предлагая провести дальнейшие исследования для оценки точности заявления. Иногда Bard может также предоставлять ссылки на источники, противоречащие его собственным заявлениям.
Для каждого сгенерированного предложения Google проводит поиск, чтобы определить наличие поддерживающего или противоположного контента, что делает Bard первой языковой моделью искусственного интеллекта, открыто признающей неопределенность.