Подсказки автодополнения в сервисах на базе искусственного интеллекта могут смещать мнение пользователей по общественно значимым вопросам в сторону позиции, которую задает сама система, выяснил исследователи из научных центров США. Авторы провели два эксперимента с участием 2582 человек. Люди писали короткие тексты о спорных темах — смертной казни, праве осужденных голосовать, выращивании ГМО, использовании фрекинга и стандартизированных тестов в образовании. Во время работы часть добровольцев получала от ИИ предвзятые подсказки автодополнения, а часть писала без них. После этого участники отвечали на вопросы о своем отношении к теме. В результате взгляды пользователей, работавших с ИИ, смещались в сторону позиции, которую продвигали подсказки. В одном эксперименте такой сдвиг составил 0,44 пункта по пятибалльной шкале, в другом — 0,41 пункта. При этом большинство участников не замечало влияния. В первом эксперименте 53% заявили, что помощник не изменил их аргументы и мышление, во втор