Чтобы получить нужную информацию, люди все чаще обращаются к голосовым помощникам, которые, как кажется, могут найти простой ответ на любой вопрос. В то же время современные ученые утверждают, что языковые модели ИИ, на которых основаны голосовые помощники, не столько понимают нас, сколько имитируют это понимание. Недавно Чираг Шах, специалист по поисковым технологиям из Вашингтонского университета, и его коллега Эмили Бендер, изучающая компьютерную лингвистику и этические проблемы обработки естественного языка, опубликовали статью, в которой поделились опасениями, что использование для поиска языковых моделей может привести к распространению дезинформации и поляризации общественного мнения. Бендер считает, что упрощать поиск информации до простого вопроса к эксперту, который якобы знает все, — это весьма инфантильный подход. Например, Google использует ИИ, чтобы повысить точность интерпретации запросов пользователей в уже существующем поисковом софте. Однако исследователи убеждены
Не ведает, что говорит: почему голосовой помощник «глупее» обычного поисковика
26 апреля 202226 апр 2022
1
1 мин