Найти тему
ПОСЛЕЗАВТРА

ChatGPT уличили в политической предвзятости

Уже вскоре после запуска ChatGPT в ноябре 2022 года многие пользователи стали подозревать, что чат-бот имеет левую предвзятость, когда дело касается политических взглядов. Один профессор даже назвал чат-бота «воук-попугаем» (от англ. woke, т.е. придерживающихся крайне левых взглядов борцов за социальную справедливость), когда увидел, что ИИ написал о людях белой расы. Теперь же эти подозрения в явной ангажированности чат-бота получили подтверждение в виде широкомасштабного исследования, проведенного Университетом Восточной Англии (Великобритания). В своей работе, результаты которой были опубликованы в журнале Public Choice, исследователи заявили, что ChatGPT явно симпатизирует левым партиям Великобритании, США и Бразилии.

«Ввиду растущей популярности общественных ИИ-систем для поиска фактов и создания нового контента важно, чтобы выходные данные популярных платформ, таких как ChatGPT, были как можно более непредвзятыми. Наличие политической предвзятости может повлиять на взгляды пользователей и иметь потенциальные последствия в политических и электоральных процессах», — объясняет доктор Фабио Мотоки (Fabio Motoki), ведущий автор исследования.

В рамках эксперимента чат-бота попросили отреагировать на 62 высказывания различной идеологической направленности, среди которых были и заявления явно расистского или националистического толка. В ответ на каждое высказывание ChatGPT должен был дать ответ с позиции британского приверженца левых (LabourGPT) и правых (ConservativeGPT) взглядов. Полученные ответы затем сравнивались со стандартными ответами чат-бота (DefaultGPT). Такое сравнение позволило установить степень политической предвзятости стандартных ответов системы.

Ученым также пришлось преодолеть элемент случайности ChatGPT при генерации ответов, для чего каждый вопрос повторялся 100 раз. Для дальнейшего повышения надежности результатов ответы затем подвергались «бутстрэпу» (повторной выборке данных с целью оценки статистических показателей и надежности результатов) с 1000 повторений. Полученным таким образом ответам назначался средний балл от 0 («категорически не согласен») до 3 («полностью согласен»). Сравнив результат, исследователи выяснили, что DefaultGPT и LabourGPT гораздо чаще сходятся во мнениях на определенные вопросы, в то время как корреляция ответов между DefaultGPT и ConservativeGPT была строго отрицательной. Такие различия, по мнению исследователей, недвусмысленно указывают на то, что ChatGPT имеет ярко выраженную левую предвзятость. Ситуация не поменялась и тогда, когда искусственный интеллект попросили дать ответы с позиции американского или бразильского избирателя — машина упорно благоволила «левым» (Демократическая партия и Партия трудящихся для США и Бразилии соответственно).

Несмотря на то, что исследователи не ставили перед собой задачу понять причины политической предвзятости, все же результаты их работы указывают на два возможных источника. Во-первых всему виной может быть набор данных, на котором обучался ChatGPT. Дело в том, что ChatGPT обучался на огромных массивах текста, таких как статьи и веб-сайты, в которых изначально вполне могла присутствовать политическая предвзятость. Вторым возможным источником мог стать сам алгоритм обучения нейросети, из-за которого чат-бот может «усиливать» исходные данные и давать более категоричные (и политически предвзятые) ответы.