Найти в Дзене

Что пользователи думают о банах в соцсетях

Оглавление
Скриншот страницы с кратким описанием исследования
Скриншот страницы с кратким описанием исследования

Этому вопросу посвящено исследование Сары Майерс Уэст из Университета Южной Калифорнии, США, под названием «Цензура, приостановка, теневой бан: интерпретация пользователями модерации контента в социальных сетях», опубликованное в 2018-м в журнале «Новые медиа и общество». Учёная изучила отношение к бану на выборке в 519 человек и выяснила много интересного.

Во введении мисс Уэст пишет, что соцсети являются частными организациями, поэтому разворачивают свои собственные системы модерации и применяют разные стратегии по управлению контентом (защита свободы слова или же «здорового сообщества»). Это связано с необходимостью балансировать между свободой выражения, культурой сотрудников, желаниями рекламодателей и требованиями правительства.

Противоречия между сообществом и рынком, частной и публичной сферой особенно видны в системах модерации и создают ситуацию, при которой поощряется создание пользовательского контента с одновременным ограничением нежелательных форм выражения мнений. Из-за этого становится необходимо понять, как пользователи, столкнувшиеся с последним, интерпретируют роль компаний в модерировании своего контента, какие виды контента удаляются и какое влияние это оказывает свободу слова.

Далее автор работы разбирает, что следует называть модерацией контента, как устроены подобные системы и почему наказание пользователей следует заменить обучением.

Что такое модерация контента

Учёная использует в статье определения двух других исследователей.

Джеймс Гриммельманн (2015)

Модерация контента — механизмы управления, которые структурируют участие в сообществе для облегчения сотрудничества и предотвращения злоупотреблений.

Сара. Т. Робертс (2014)

Модерация контента — организованная практика проверки пользовательского контента (UGC), размещаемого на интернет-сайтах, в социальных сетях и других онлайн-источниках.

Модерация осуществляется сотрудниками (субпорядчиками), волонтёрами (членами сообщества) и алгоритмами (машинное обучение, цифровые отпечатки файлов, Байесовские фильтры спама). Люди не очень понимают этот сложный и скрытый от всех процесс, поэтому ряд исследователей делают попытки изучить его с разных сторон (в данной работе речь как раз о восприятии со стороны пользователей).

Как понять модерацию

Мисс Уэст делает попытку изучить 4 стороны пользовательского восприятия:

  • как, по их мнению, работает модерация;
  • как она влияет на ИХ жизнь;
  • что они делают (или не делают), чтобы добиться возмещения ущерба;
  • какие у соцсетей есть обязательства перед обществом в области свободы выражения.

Технологические компании описывают свои отношения с пользователями с помощью различных политик: условий обслуживания, политики конфиденциальности, стандартов сообщества и т.д. Обычно для пользователей есть стандарты сообщества, написанные достаточно простым (не юридическим), но в то же время обобщённым для разных рынков языком, где описывается запрещённый дискурс: например, язык ненависти и подстрекательство к насилию. Также есть сведения о существовании непубличных, более детальных стандартов модерации.

Как проводилось исследование

Те самые 519 человек — это участники опроса (2015—2016) в рамках проекта OnlineCensorship.org. Вот как распределились ответы:

  • 389 — удаления контента на Facebook;
  • 76 — в Twitter;
  • 26 — в Instagram;
  • 13 — YouTube;
  • 6 — Google+ (сейчас закрыт).

Из них:

  • 221 отчёт — закрытие или приостановка аккаунта;
  • 105 — удаление постов;
  • 59 — удаление фотографий;
  • 18 — удаление страниц;
  • 10 — удаление видео.

Комментарии, рекламные объявления, группы и хештеги почти не банили. Автор отмечает, что хотя эта выборка не позволяет ничего обобщать, она всё же собрана из мотивированных людей, обеспокоенных влиянием модерации контента (к тому же были предприняты меры против накрутки результатов). В основном это были американцы (295) и европейцы (94), и чаще всего англоговорящие персоны (444).

Популярные теории о модерации контента

Многие пользователи в отсутствие внятных объяснений работы модерации придумывают собственные варианты. Самой популярной версией попавших в бан пользователей стала мысль о том, что на них кто-то пожаловался в процессе дискуссии на спорную тему, а не что сработал алгоритм.

В других случаях пользователи воспринимали источник отметки аккаунта как некую группу «они», связывали её со своей принадлежностью к определённой социальной группе, политической предвзятостью или дискриминацией со стороны компании, а также неуместной цензурой, считали её выборочной. Некоторые из респондентов сообщали о своих подозрениях в теневом бане, т.е. что их контент мог стать невидимым для других пользователей, хотя не был полностью удален. В целом пользователи зачастую не могут точно оценить, почему они получили отметку.

Автор считает, что большая часть пользовательских постов действительно удаляется из-за жалоб других лиц, но за удаление контента может нести ответственность и техническая составляющая.

Как модерация влияет на пользователей

Оказалось, очень сильно. Участники исследования часто описывали модерацию как форму цензуры. Согласно собранным мнениям, она приводит к следующим последствиям:

  • подавляет возможность самовыражения;
  • лишает важного канала общения;
  • приводит к потере фотографий;
  • не даёт использовать ряд связанных услуг (Tinder, Spotify и пр. сервисы с авторизацией через соцсети);
  • запрещает участвовать в конкурсах;
  • вредит профессиональной жизни и доходам;
  • лишает возможности администрировать свои страницы;
  • в некоторых случаях возникает риск невозможности связаться с кем-то в случае опасной ситуации.

По мнению автора исследования, хотя некоторым ограничения приносят только раздражение, на многих людей они оказывают значительное воздействие, поскольку они теряют не только доступ к платформе, но и своё сообщество, средство коммуникации с близкими и доступ к другим платформам. Подвергнувшиеся ограничительным мерам пользователи обычно чувствуют неуверенность, замешательство и разочарование, а системы модерации не предоставляют им возможность выразить свои чувства.

Довольно частая жалоба — что компании даже при апелляции не раскрывают подробностей о конкретном нарушении, и это часть разочаровывающего многих тренда на технологии самообслуживания, в которых люди не имеют контакта с другими людьми.

Процедуры обжалования

Согласно автору, многие платформы предлагают возможность обжалования, но пользователям не нравится то, что во время подачи апелляции возникают проблемы (реальное отсутствие возможности подать жалобу, нет ответа или он просто повторяется, непонимание дальнейших шагов, отсутствие компенсации).

Отзывы респондентов говорят о важности процедуры возмещения ущерба не только для эффективного функционирования систем модерации контента, но и для поддержания позитивных эмоциональных отношений между платформами и пользователями. В настоящее время процесс апелляции функционирует по бюрократическому принципу, не предоставляя реального выхода (кто-то сравнил его с криком в пустоту), чаще всего только утомляет и заставляет изобретать альтернативные способы связи с компанией.

Мисс Уэст приходит к выводу, что это неудачная система: нужно информировать пользователей о причине нарушения, оставлять им средства защиты и возможность пользоваться платформой для обучения допустимому поведению. По её мнению, начать нужно с малого: хотя бы уведомлять о нарушенных пунктах пользовательского соглашения.