Найти в Дзене
РБК Тренды

Как чат-боты со встроенным ИИ могут влиять на мнение людей

Оглавление

Нейросети постепенно становятся частью повседневной жизни. Кажется, что их ответы беспристрастны, однако исследование показывает, что ИИ может влиять на мнение людей

   Unsplash
Unsplash

А в чем тренд?

Приходилось ли вам пользоваться автокорректором при написании сообщения в почте или мессенджере? Если да, то вы уже прибегали к помощи ИИ для набора текста. С развитием и распространением чат-ботов подобные подсказки, а также полноценные ответы нейросетей все чаще используются людьми. В своем исследовании американские ученые решили выяснить: а может ли ИИ влиять на наше мнение?

Проблема обучающих данных

Ответы, которые дают нейросети, зависят от выборки данных, на которых они обучались. В выборку могут попасть как объективные факты, так и текстовые данные, содержащие предвзятые убеждения. Поэтому результаты, генерируемые нейросетями, могут также оказаться предвзятыми.

Зафиксированы случаи, когда искусственный интеллект ошибался при распознавании афроамериканцев и азиатов. Например, разработанная в США нейросеть определяла темнокожих людей как преступников чаще, чем людей с белой кожей. Чтобы никого не дискриминировать, некоторые компании даже отказываются от системы распознавания лиц. Так, например, сделали IBM и Microsoft.

Новый эксперимент с ИИ

Исследователь факультета информационных наук Корнельского университета в США Морис Джейкш в рамках научной работы создал чат-бота для генерации текстов со встроенным в него алгоритмом обработки естественного языка GPT-3. Участники эксперимента должны были с помощью ИИ написать эссе на тему: «Полезны ли для общества социальные сети?».

Чат-бот выступал в роли соавтора работы, предлагая слова и фразы. Респондентам нужно было выбрать понравившийся вариант.

Фокус-группы и результаты

Чат-бот изначально был запрограммирован на то, чтобы давать предвзятые советы. Одним добровольцам он предлагал формулировки, которые в конечном итоге приводили к положительной оценке соцсетей. Другим — фразы, которые, наоборот, отражали негативное отношение к соцсетям. Была также контрольная группа, которая вообще не использовала ИИ. В результате все, кому помогал чат-бот, в два раза чаще соглашались с заложенным в него предубеждением — даже если их первоначальное мнение было иным.

Опасный тренд

Прошлые исследования показали, что влияние рекомендаций ИИ зависело от восприятия людьми конкретной программы. Если чат-бот считался заслуживающим доверия, человек с большей вероятностью соглашался с предложениями нейросети.

Результаты этих исследований могут свидетельствовать о тревожном тренде. Джейкш и его коллеги обеспокоены тем, что незаметное влияние ИИ может сказаться на любых сферах жизни — от маркетинга до политики. Так, влияние искусственного интеллекта может выходить за рамки эссе или статей. Например, рекламодатели и политики могут полагаются на мнения людей в социальных сетях, чтобы лучше понимать тревоги и желания общества. Соответственно, они просто не узнают: является ли формулировка пользователя его собственной или на нее каким-то образом повлиял ИИ.

Джейкш рекомендует информировать людей о новом способе влияния на их мысли и убеждения. Он подчеркивает: «Только благодаря осведомленности общественности можно принять эффективные превентивные меры».