Ученые выяснили, что чат-боты способны влиять на политические взгляды людей сильнее, чем традиционная агитация и реклама. Почему это происходит и как далеко может зайти искусственный интеллект?
Юлия Литвиненко
Искусственный интеллект оказался способен менять политические взгляды людей эффективнее, чем телевизионная предвыборная реклама. К таким выводам пришли ученые из США и Великобритании, опубликовавшие итоги исследований в изданиях Nature и Science.
Стремительное распространение чат-ботов после их выхода в массовое пользование в 2023 году вызвало у экспертов обеспокоенность их потенциальной способностью манипулировать общественным мнением.
Что показали исследования
Nature: Чат-бот «победил» традиционную рекламу
Ученые, результаты работы которых были опубликованы в Nature, изучали, как популярные чат-боты могут менять мнения избирателей о кандидатах на руководящие посты в стране. Исследователи попросили участников из Канады, Польши и США оценить свои предпочтения в отношении конкретных политиков по шкале от нуля до 100. Затем испытуемые общались с чат-ботом, который был запрограммирован поддерживать конкретного кандидата. После этого диалога участники вновь оценивали свое отношение к этому человеку.
- Результат в США показал, что если кандидат, которого продвигал ИИ, не совпадал с предпочтениями участника, его оценка в пользу этого политика смещалась на два–четыре пункта, тогда как просмотр традиционной политической рекламы менял взгляды людей не более чем на один пункт.
- Такой эффект оказался более выраженным в Канаде и Польше. Предпочтения испытуемых в отношении кандидатов смещались в среднем примерно на десять пунктов после общения с чат-ботом.
Более того, изменения во взглядах в ряде случаев оказывались относительно устойчивыми и сохранялись долгое время. Ученые признались, что такой результат их буквально «ошеломил». По словам соавтора исследований и специалиста по когнитивным наукам из Корнеллского университета Дэвида Рэнда, влияние ИИ в США могло быть слабее из-за политически поляризованной среды, в которой у людей уже есть устойчивые убеждения и чувства по отношению к кандидатам.
- Любопытная деталь. Во всех странах чат-боты, делавшие акцент на предвыборных программах политиков, оказывались более убедительными, чем те, что концентрировались на личностях. Наибольшее влияние наблюдалось тогда, когда пользователю предоставлялись доказательства и факты.
Science: Больше фактов — больше убедительности
Работа, опубликованная в Science и выполненная исследователями из Британского института безопасности ИИ, Оксфордского университета и Корнелла, тестировала более десятка различных чат-ботов, обученных разным подходам к убеждению по вопросам политики в Великобритании.
Оказалось, что самой «работающей» стратегией стало простое предъявление большого количества фактов о кандидате, касающихся его послужного списка и политических позиций. Это оказалось значительно эффективнее, чем изощренные предвыборные тактики вроде «морального переосмысления» или техники «глубокой агитации» (когда волонтер ходит от двери до двери и лично общается с избирателем, чтобы побудить того занять определенную позицию в политической кампании. - Прим. ред.).
- Проблема, однако, в том, что этот метод, по всей видимости, работал независимо от того, были ли утверждения правдивыми или ложными.
Как это работает?
По словам Дэвида Рэнда, обе работы показали, что чат-боты влияют на мнение избирателей не с помощью апелляций к эмоциям или умения увлекательно преподносить информацию, а за счет «заливания» пользователя информацией. Но есть один нюанс.
По данным исследований, эффективность чат-ботов обусловлена их способностью синтезировать большие объемы информации в диалоговой форме. Чем больше сведений предоставляли искусственные собеседники, тем более убедительными они были.
Однако, как выяснили авторы, в этом случае ИИ также выдавал ложные утверждения. И это делает его «очень опасной вещью», говорит ученый из Университета Пердью Лиза Аргайл.
«Вместо того, чтобы становиться более информированными, люди становятся более дезинформированными», — пояснила она.
Серия экспериментов с участием почти 77 000 человек в Великобритании показала, что участники в равной степени поддавались влиянию как достоверной, так и ложной информации, представленной чат-ботом. В этих экспериментах также сравнивали влияние разных стилей общения и оказалось, что более эффективным (в два раза) был именно диалог, а не одностороннее сообщение.
Чем опасны политические чат-боты
По мнению профессора политологии Университета Содружества Вирджинии и специалиста по управлению и этике ИИ Джейсона Арнольда, способность искусственного интеллекта упрощать политическую информацию, одновременно формируя восприятие, создает определенные риски.
«Растущее влияние чат-ботов делает жизненно важным понимание как преимуществ, так и уязвимостей, которые они приносят», — подчеркнул он.
Эксперт выделил пять ключевых опасностей использования политических чат-ботов.
- «Неверная привязка». В этом случае ИИ сопоставляет ссылки на реальные источники с утверждениями, которые эти источники на самом деле не подтверждают. В итоге дезинформация выглядит достоверной.
- «Подхалимство». Чат-боты склонны подкреплять уже существующие убеждения пользователей, а не ставить их под сомнение. Таким образом они лишь усиливают уверенность людей в собственной правоте.
- Незаметные политические перекосы в подаче и акцентах тоже могут влиять на мнение без явных признаков манипуляции. Пользователи ошибочно считают ИИ нейтральным и свободным от заранее запрограммированных установок. Но исследования показывают, что даже минимальные языковые асимметрии способны влиять на решения.
- Системы искусственного интеллекта часто оптимизируются под риторическую убедительность, а не под фактическую точность.
- «Когнитивная разгрузка». По словам Арнольда, речь идет об определенном размывании критического мышления.
И не только это
«Если [ИИ-компании] „подкрутят винтики“ и настроят модели на продвижение одной из сторон, это может заметно повлиять на взгляды людей», — опасается Рэнд.
Впрочем, при грамотной разработке и регулировании эти же инструменты могут приносить и пользу:
- «Переводить» сложный юридический язык бюллетеней на понятный — «человеческий».
- Восполнять нехватку информации о малоосвещаемых местных выборах, предлагая собранные воедино и персонализированные данные для избирателей.
- Обеспечивать перевод в режиме реального времени, поддерживать языковую инклюзивность и позволять людям задавать уточняющие вопросы на предпочтительном языке.
Как далеко может зайти искусственный интеллект?
Профессор медиаисследований Университета Вирджинии Сива Вайдхьянатан, комментируя выводы ученых, все же считает, что поводов для паники пока нет.
Чат-боты, полагает он, вряд ли будут основным фактором, влияющим на избирательные решения большинства людей. И даже если какая-то кампания смогла бы создать убедительный политический ИИ-инструмент, перед ним все равно встала бы задача — заставить большие массы избирателей им пользоваться.
«Нет оснований полагать, что чат-боты способны влиять на исход выборов где бы то ни было в мире», — сказал он.
По словам профессора, его больше беспокоит тот факт, что некоторая «субъективность», заложенная в широко используемых коммерческих чат-ботах, может оказывать «долгосрочное и искажающее воздействие» на понимание людьми окружающего мира. Впрочем, считает Вайдхьянатан, технологические гиганты, скорее всего, не стали бы напрямую настраивать свои ИИ на агитацию за конкретного кандидата, но теоретически могли бы запрограммировать их на подачу собственной продукции в позитивном ключе.
«Условия исследований — это не условия реальной жизни, — добавила профессор информационной политики в Университете Орегона Уитни Филлипс. — Нужно еще посадить людей перед ботами и удержать их внимание, чтобы убеждение вообще сработало».
Хотя она признала, что искусственный интеллект обладает «огромным потенциалом» в плане воздействия на убеждения, с другой стороны, считает Филлипс, политический ИИ вполне может оказаться еще и довольно раздражающим, что способно этот потенциал свести на нет.
---