Вчера наткнулся на интересный момент – «ИИ часто привирает», то бишь «говорит неправду». Был даже придуман специальный термин для ИИ-лжи = «Галлюцинации ИИ». Это когда ИИ выдает нерелевантные результаты своей работы над запросом пользователя. Он, для примера, может дать ссылки на несуществующие первоисточники. Он пишет их, как говорится, «от балды». И вытаскивает из этих имсамимпридуманных источников факты, статистику, доказательства. Именно поэтому сейчас в поиске от ИИ внизу указывается мелким шрифтом: «Требуется перепроверка человеком». Это как в договоре с банком на кредит – самое существенное прячется в мелком шрифте, люди это не читают – и попадают на деньги, штрафы, убытки. 1) Нейросети склонны галлюцинировать. Фраза звучит красиво, но последствия могут быть катастрофическими. Если мы полностью доверимся ИИ, полагаясь на наш исконный русский «авось и так прокатит». Может прокатит, а может и нет. Тут вступает в действие старой эмпирическое правило: «Неважные детали можно опустить
ИИ склонен к обману: Искусственный интеллект лажает и придумывает факты
2 дня назад2 дня назад
84
3 мин