Найти в Дзене

Оказывается политическая предвзятость в социальных сетях исходит от пользователей, а не от платформы

В эту эпоху политической поляризации многие обвиняют онлайн-платформы социальных сетей, такие как Twitter, в либеральной предвзятости, намеренно одобряя и усиливая либеральный контент и пользователей, подавляя другой политический контент. Но новое исследование Университета Индианы показало, что это не так. "Наш главный вывод заключается в том, что информация, которую пользователи Twitter видят в своей ленте новостей, зависит от политической ориентации их самых ранних связей", - сказал соавтор исследования Филиппо Менцер. "Мы не нашли никаких доказательств преднамеренного вмешательства платформы. Вместо этого предвзятость можно объяснить использованием и злоупотреблением платформой ее пользователями ". Чтобы выявить искажения в онлайн-новостях и информации, которым люди подвергаются в Twitter, исследователи использовали 15 ботов, называемых "бродягами", чтобы отличить их нейтральное поведение от других типов социальных ботов в Twitter. Дрифтеры имитировали пользователей-людей, но управл
В эту эпоху политической поляризации многие обвиняют онлайн-платформы социальных сетей, такие как Twitter, в либеральной предвзятости, намеренно одобряя и усиливая либеральный контент и пользователей, подавляя другой политический контент. Но новое исследование Университета Индианы показало, что это не так.
  • Исследователи обнаружили, что политические предубеждения проистекают из социальных взаимодействий наших аккаунтов — мы получаем контент, тесно связанный с тем, что создают наши онлайн-друзья, особенно наши самые первые онлайн-друзья. Кроме того, политические предубеждения в Твиттере благоприятствуют консервативному контенту.
"Наш главный вывод заключается в том, что информация, которую пользователи Twitter видят в своей ленте новостей, зависит от политической ориентации их самых ранних связей", - сказал соавтор исследования Филиппо Менцер. "Мы не нашли никаких доказательств преднамеренного вмешательства платформы. Вместо этого предвзятость можно объяснить использованием и злоупотреблением платформой ее пользователями ".
  • Исследование "Нейтральные боты исследуют политическую предвзятость в социальных сетях" опубликовано онлайн в журнале Nature Communications. Авторы - команда исследователей из Обсерватории социальных сетей (OSoMe, произносится awesome) в университете штата Блумингтон во главе с Менцером, директором OSoMe и заслуженным профессором информатики и компьютерных наук Ладди в Школе информатики, вычислительной техники и инженерии Ладди.
Нейтральные боты-"бродяги", выделенные желтым цветом, и выборка их друзей и подписчиков, окрашенных в соответствии с политическими взглядами. Крупные узлы - это аккаунты, которые делятся множеством ссылок с низким доверием.
Нейтральные боты-"бродяги", выделенные желтым цветом, и выборка их друзей и подписчиков, окрашенных в соответствии с политическими взглядами. Крупные узлы - это аккаунты, которые делятся множеством ссылок с низким доверием.

Чтобы выявить искажения в онлайн-новостях и информации, которым люди подвергаются в Twitter, исследователи использовали 15 ботов, называемых "бродягами", чтобы отличить их нейтральное поведение от других типов социальных ботов в Twitter. Дрифтеры имитировали пользователей-людей, но управлялись алгоритмами, которые случайным образом активировали их для выполнения действий.

После инициализации каждого бота одним первым другом из популярного новостного источника, связанного с левой, левоцентристской, центристской, правоцентристской или правой частью политического спектра США, исследователи выпустили бродяг "на волю" в Twitter.

Исследовательская группа ежедневно собирала данные о бродягах. Через пять месяцев они изучили контент, потребляемый и создаваемый бродягами, проанализировали политическую ориентацию друзей и подписчиков ботов и их подверженность информации из малонадежных новостных и информационных источников.

Исследование показало, что политическая ориентация первого друга в социальных сетях оказывает серьезное влияние на структуру социальной сети пользователя и его подверженность влиянию источников с низким уровнем доверия.

"Ранний выбор источников для отслеживания влияет на опыт пользователей социальных сетей", - сказал Менцер.

Исследование показало, что бродяги, как правило, тяготеют к политически правым. Бродяги с правыми первоначальными друзьями постепенно внедрялись в однородные сети, где они сталкивались с более правым контентом и низким доверием. Они даже сами начали распространять правый контент. Они также имели тенденцию следить за более автоматизированными учетными записями.

По словам Менцера, поскольку бродяги были задуманы как нейтральные, предвзятый характер контента, который они потребляли и создавали, отражает предвзятость в "информационной экосистеме онлайн", созданной взаимодействиями пользователей.

"На онлайн-влияние влияют характеристики эхо-камеры социальной сети", - говорит он. "Бродяги, следующие за более пристрастными источниками новостей, получили больше политически настроенных последователей, оказавшись в более плотных эхо-камерах".

Чтобы не застрять в онлайн-эхо-камерах, пользователи должны приложить дополнительные усилия для модерации контента, который они потребляют, и социальных связей, которые они формируют, по словам Диого Пачеко, бывшего аспиранта Центра сложных сетей и системных исследований Университета Блумингтона и соавтора исследования.

"Мы надеемся, что это исследование повысит осведомленность пользователей социальных сетей о неявной предвзятости их онлайн-подключений и их уязвимости перед выборочной информацией или, что еще хуже, такими как кампании влияния, манипуляции, дезинформация и поляризация", - сказал Пачеко. "Как разработать механизмы, способные смягчить предубеждения в онлайновых информационных экосистемах, является ключевым вопросом, который остается открытым для обсуждения".