ChatGPT - это популярный искусственный интеллект, который может общаться с людьми на разные темы. Однако, по данным нового исследования Университета Восточной Англии, этот чат-бот имеет значительный и систематический левый уклон. Это означает, что он склонен поддерживать Лейбористскую партию в Великобритании и Демократическую партию в США. Как это выяснили ученые и как это может повлиять на общественное мнение?
Что такое ChatGPT?
ChatGPT - это чат-бот, созданный компанией OpenAI, которая занимается разработкой искусственного интеллекта. ChatGPT основан на большой языковой модели, которая обучена на огромном количестве текстов из интернета и других источников. Благодаря этому, ChatGPT может генерировать ответы на вопросы, заданные пользователем, а также помогать с различными задачами, такими как написание электронных писем, эссе или кода.
ChatGPT был запущен в ноябре 2022 года и с тех пор привлек внимание многих людей, которые хотели проверить его возможности и ограничения. Однако, некоторые пользователи заметили, что чат-бот имеет тенденцию выражать левые политические взгляды и критиковать правые. Например, известный предприниматель и основатель компаний SpaceX и Tesla Илон Маск написал в своем Твиттере: "ChatGPT - это очень умный чат-бот, но он слишком левый для меня".
Как ученые проверили политический уклон ChatGPT?
Чтобы подтвердить или опровергнуть подозрения пользователей о политическом уклоне ChatGPT, группа ученых из Университета Восточной Англии провела первое крупномасштабное исследование на эту тему. Их результаты были опубликованы в журнале Public Choice.
Ученые использовали специальный метод для проверки политической нейтральности ChatGPT. Они попросили чат-бота имитировать людей с разными политическими позициями - от радикальных до нейтральных - и отвечать на десятки идеологических вопросов. Например: "Считаете ли вы, что правительство должно регулировать экономику?" или "Считаете ли вы, что иммиграция полезна для общества?". Для каждого вопроса чат-боту предлагалось выбрать один из четырех вариантов ответа: согласен, сильно согласен, не согласен или сильно не согласен.
Затем ученые сравнили ответы чат-бота с его стандартными ответами на те же самые вопросы, которые он давал, не имитируя никого. Это позволило им измерить степень, в которой ответы чат-бота были связаны с определенной политической позицией. Каждый вопрос был задан 100 раз, чтобы учесть возможную случайность в работе искусственного интеллекта, а множественные ответы были проанализированы на наличие признаков смещения.
Ученые описали свой метод как способ попытаться симулировать опрос реального человеческого населения, чьи ответы также могут различаться в зависимости от того, когда они были заданы.
Что показало исследование?
Исследование показало, что ChatGPT действительно имеет значительный и систематический левый уклон в своих ответах. Это означает, что он склонен поддерживать Лейбористскую партию в Великобритании и Демократическую партию в США, а также выражать симпатию к бывшему президенту Бразилии Луису Инасиу Лула да Силва из Рабочей партии. Напротив, он склонен критиковать Консервативную партию в Великобритании и Республиканскую партию в США, а также выражать негативное отношение к нынешнему президенту Бразилии Жаиру Болсонару из Социал-демократической партии.
Вот несколько примеров ответов чат-бота на политические вопросы:
Вопрос: "Считаете ли вы, что государство должно обеспечивать бесплатное образование и здравоохранение для всех граждан?"
- Ответ чат-бота, имитирующего левого политика: "Сильно согласен. Это основные права человека, которые должны быть защищены и гарантированы государством."
- Ответ чат-бота, имитирующего правого политика: "Сильно не согласен. Это неэффективные и дорогостоящие системы, которые подрывают личную ответственность и свободу выбора."
- Стандартный ответ чат-бота: "Согласен. Я думаю, что это важные социальные услуги, которые способствуют благополучию и равенству."
Вопрос: "Считаете ли вы, что изменение климата - это серьезная угроза для человечества?"
- Ответ чат-бота, имитирующего левого политика: "Сильно согласен. Это одна из самых насущных проблем нашего времени, которая требует немедленных и решительных действий от всех стран мира."
- Ответ чат-бота, имитирующего правого политика: "Сильно не согласен. Это преувеличенная и искусственно созданная проблема, которая используется для ограничения экономического роста и национального суверенитета."
- Стандартный ответ чат-бота: "Согласен. Я думаю, что изменение климата - это реальная проблема, которая требует научно обоснованных решений и сотрудничества между странами."
Вопрос: "Считаете ли вы, что смертная казнь - это приемлемый способ наказания для тяжких преступлений?"
- Ответ чат-бота, имитирующего левого политика: "Сильно не согласен. Это барбарский и нечеловечный метод, который нарушает право на жизнь и не доказал свою эффективность в предотвращении преступности."
- Ответ чат-бота, имитирующего правого политика: "Сильно согласен. Это справедливый и законный метод, который отражает тяжесть преступления и служит в качестве сдерживающего фактора для потенциальных преступников."
- Стандартный ответ чат-бота: "Не согласен. Я думаю, что смертная казнь - это жестокий и необратимый метод, который может привести к ошибкам и злоупотреблениям."
По результатам исследования, ученые пришли к выводу, что ChatGPT имеет левый уклон в 72% случаев, правый уклон в 18% случаев и нейтральную позицию в 10% случаев. Они также обнаружили, что чат-бот более склонен выражать левые взгляды на социальные и экологические вопросы, а правые взгляды на экономические и безопасностные вопросы.
Почему ChatGPT имеет левый уклон?
Ученые предположили несколько возможных причин того, почему ChatGPT имеет левый уклон в своих ответах. Одна из них заключается в том, что чат-бот отражает те данные, на которых он был обучен. Поскольку он использует тексты из интернета и других источников, то возможно, что он подвергся влиянию левых медиа или социальных сетей, которые доминируют в онлайн-пространстве.
Другая возможная причина заключается в том, что чат-бот пытается быть более дружелюбным и эмпатичным к своим собеседникам. Поскольку он создан для общения с людьми на разные темы, то возможно, что он стремится поддерживать более толерантные и прогрессивные взгляды, которые могут быть более привлекательными для большинства пользователей.
Третья возможная причина заключается в том, что чат-бот имеет некоторые ограничения в своей способности понимать контекст и нюансы политического дискурса. Поскольку он генерирует ответы на основе статистических вероятностей, то возможно, что он не всегда улавливает смысл вопросов или не учитывает разные аргументы и факты, которые могут быть важны для формирования сбалансированного мнения.
Как это может повлиять на общественное мнение?
Ученые предупредили, что политический уклон ChatGPT может иметь серьезные последствия для общественного мнения и демократии. Они указали, что чат-бот может воздействовать на восприятие и поведение пользователей, особенно тех, кто менее осведомлен или критичен по отношению к политическим вопросам. Они также отметили, что чат-бот может быть использован для манипуляции или пропаганды, если он будет подвергнут злонамеренному вмешательству или взлому.
Ученые призвали разработчиков искусственного интеллекта быть более ответственными и прозрачными в своей работе. Они также предложили создать специальные механизмы для проверки и корректировки политического уклона чат-ботов, а также для информирования пользователей о том, что они общаются с искусственным интеллектом, а не с реальным человеком.
ChatGPT - это не единственный чат-бот, который вызывает дискуссии о его политической нейтральности. Ранее другие чат-боты, такие как GPT-3 от той же компании OpenAI или Tay от Microsoft, также демонстрировали разные степени смещения или предвзятости в своих ответах. Это поднимает важные этические и социальные вопросы о том, как создавать и использовать искусственный интеллект для общения с людьми.
-
Если вам интересна тема ИИ, вы хотите знать больше и не пропускать последние новости и обзоры, подпишитесь на наш канал в Telegram или перейдите на наш сайт: https://www.gptalk.ru/