Крупнейшие социальные платформы разрабатывают стратегии борьбы с разжиганием ненависти и профилактики радикализации контента. Интернет-компании ищут способы создания эффективного контрнарратива — позитивного контента, который помог бы компенсировать негатив в социальных сетях
Джереми Кан из Bloomberg Businessweek проанализировал исследования Facebook и других интернет-ресурсов в этой области. Приводим выдержки из его материала.
В прошлом году Иоганнесу Бальдауфу и его коллегам из Amadeu Antonio Foundation было поручено разработать медиакампанию, направленную против распространения правоэкстремистской пропаганды и волны ложных сообщений, представляющих мигрантов и беженцев виновниками всех бед. Активисты занимаются созданием так называемого контрнарратива в противовес экстремистским установкам и призывам. Они пользуются теми же методами, которые применяются для разжигания ненависти, но с другой целью — чтобы нейтрализовать ультраправую повестку.
Мемы
За день интенсивного мозгового штурма команда придумала новый мем-пародию на тех, кто привык во всех повседневных проблемах вроде переполненного общественного транспорта винить представителей этнических и прочих меньшинств.
В Сети появились картинки-символы неудачного дня с разбитым айфоном или незадавшейся укладкой и подписью: Kein Grund, Rassist zu werden («Нет причин для расизма»). Вскоре интернет-пользователи стали добавлять свои собственные сюжеты на темы абсурдного воинствующего фанатизма. Хэштег стал распространяться в Facebook, Instagram и Twitter (нельзя сказать, что он набрал большую популярность, TF).
Получилось интересно — показательная история о том, как Facebook может побеждать те самые всплески гнева и нетерпимости, в распространении которых его часто обвиняют.
Подобные техники — не самая растиражированная, но очень важная составляющая планов борьбы Facebook с экстремизмом. В последнее время задача приобретает особую актуальность с усилением роли правых партий в Западной Европе и Азии и после избрания на пост президента США Дональда Трампа.
Модерирование контента
В Германии, где в Facebook насчитывается 29 млн зарегистрированных пользователей, разрабатывают законопроект, который обяжет операторов соцсетей удалять или блокировать посты, содержащие клевету или разжигающие ненависть, в течение 24 часов после получения жалобы. В случае нарушения правила или невнимательного отношения к жалобам администрация соцсетей будет нести материальную ответственность. Предлагаемые суммы наказаний за отсутствие оперативных мер — 50 млн евро для компаний и до 5 млн евро для руководителей.
С тех пор, как в Германию в 2015 году прибыло более миллиона мигрантов, количество возбуждающих вражду нападок в социальных сетях выросло во много раз. Онлайн-провокации стали инструментом разжигания насилия в реальном мире. В августе в Хайденау под Дрезденом на протяжении нескольких ночей не прекращались ожесточенные столкновения между экстремистами и полицейскими, охраняющими беженцев. И это только один пример.
Неслучайно именно в Германии, в Берлине, операционный директор Facebook Шерил Сэндберг объявила в прошлом году о новой общественной онлайн-инициативе Online Civil Courage Initiative (OCCI). Изначально на программу заложили 1 млн евро. На эти средства предполагается выделять небольшие гранты организациям по борьбе с экстремизмом в качестве помощи в разработке контрнарратива и кампаний против разжигания ненависти. Бальдауф уверен, что социальные медиа могут быть и инструментом просвещения.
Такие меры четко вписываются в объявленную Цукербергом в феврале новую повестку: Facebook должен изменить настроение сообществ — не только в онлайн-среде, но и в реальном мире. Создатель соцсети хочет, чтобы окружение стало более безопасным, равноправным, информированным и ответственным. Контрнарратив — первая возможность увидеть, как это реализуется на практике.
Сложность заключается в том, что даже многомиллионные бюджеты и подключение армии модераторов не позволяют компаниям достаточно оперативно удалять экстремистский контент. Создать новый аккаунт можно сразу после блокировки прежнего.
Сложности
В феврале глава Facebook рассказал, что каждый месяц проверяется 100 млн публикаций. Даже если соответствующие службы правильно отработают 99% заявленных подозрительных постов, все равно со временем копятся миллионы пропущенных нарушений. Особенно просто упустить прямые видеотрансляции.
В апреле мужчина в Таиланде устроил демонстрацию убийства собственной дочери. В Кливленде убийца разместил кадры преступления в Сети. Оба видео несколько часов оставались в свободном доступе. В Facebook после этого заявили, что привлекут дополнительно 3 тысячи человек для мониторинга. Но даже этого может быть недостаточно.
Остается рассчитывать на то, что бороться с экстремизмом и разжиганием ненависти помогут новые подходы и техники. Чтобы вычислить, какого рода контранарратив будет действенным, полезно представлять себе другой полюс — собственно, то, чему требуется противопоставление.
В Facebook решили подключить к работе Международный центр изучения радикализации и политического насилия Королевского колледжа Лондона — экспертам было поручено реконструировать механизмы цифровой пропаганды и вербовки экстремистов. Руководитель центра Питер Нойманн говорит, что самое сложное — вывести взаимосвязь между популярностью контента, оцениваемой по количеству лайков и перепостов, и фактическими изменениями на уровне действий. В большинстве случаев агрессивные публикации не влияют на получателя, но некоторая небольшая группа людей может попасть под действие подобных установок.
Социальные сети не всесильны. В апреле 2014 года боевики радикальной исламистской группировки «Боко Харам» похитили более 270 нигерийских школьниц в Чибоке на северо-востоке Нигерии. Тогда спонтанная акция #bringbackourgirls с призывом освободить заложниц, в которой участвовали первая леди США Мишель Обама и актриса Сальма Хайек, вдохновила массовые демонстрации в столице Нигерии Абудже, в Лондоне и Лос-Анджелесе. По меркам онлайн-маркетинга это была бы очень успешная кампания. Но неясно, насколько это повлияло на договоренность об освобождении заложниц. И определенно, хэштег никак не ослабил позиции группировки.
Стратегии
Бальдауф не особенно верит в мемы, даже работая над их созданием. Более эффективен, по его мнению, прямой, но более сложный метод — с помощью Facebook и других соцсетей выявлять и выходить на тех, кто может попасть под влияние экстремистских группировок. Часто в такой работе главное — эмоциональная поддержка и чувство принадлежности, а не идеологические убеждения.
В рамках работы OCCI Facebook финансирует еще одну группу, Институт стратегического диалога (Institute for Strategic Dialogue, ISD). Исследователи ISD с помощью инструментов Facebook выявили 154 человека из группы риска, которых могли привлечь на свою орбиту радикалы запрещенной в России организации «Исламское государство» или националистские группы.
Имеющийся инструментарий адресной рекламы позволил идентифицировать пользователей по группам интересов, типам мобильных устройств, полу, возрасту и прочим факторам. С его помощью ISD удалось выявить участников соцсетей, связанных с группами ненависти, и затем отфильтровать список с учетом фотографий в профиле и характера и тональности публикаций. Только оценить принадлежность к группам крайних политических или религиозных взглядов было недостаточно. Исследователи попытались определить тех, кто поддерживает насилие или ставит лайки публикациям подобного толка.
Через Facebook исследователи направляли сообщения пользователям из списка, и как правило, в цепочке было не менее пяти сообщений. Диалог вели бывшие экстремисты, прошедшие подготовку по методикам дерадикализации. Эксперты делают вывод, что не всегда удаление подозрительных аккаунтов будет оптимальной стратегией, ведь таким образом отсекается доступ для трансляции контрустановок, и не остается возможности повлиять на ситуацию.
Просвещение против ненависти
Глава ISD Саша Гавличек говорит, что стратегии контрнарратива в духе «Нет причин для расизма» призваны укрепить ценности толерантности и повлиять на общественное мнение в противовес распространению экстремистской пропаганды. Просветительские меры в сфере общественного здравоохранения на определенном этапе позволили добиться результатов в профилактике курения и незащищенного секса. Она уверена, что так же будет и в борьбе с расизмом, если адресаты будут считать, что получают информацию из заслуживающих внимания источников.
В исследовании 2016 года в ISD тестировали контрнарративы в форме видеороликов в Facebook, Google и Twitter. Гавличек признает, что пока есть в лучшем случае предварительные данные о том, насколько подобные ролики меняют установки адресатов или порог восприимчивости к экстремистской пропаганде. Потому необходимо продолжать исследования.
В 2015 году подразделение Alphabet Inc. Google Jigsaw, занимающееся стратегиями противодействия онлайн-экстремизму, также проводило пилотный проект Redirect Method, в котором на запросы, потенциально связанные с темой экстремистских организаций, выводились контрсюжеты. Показатель переходов был на 75% выше, чем у поисковой рекламы, говорят в Google.
В Facebook подобные методы применяются в случаях, когда действия пользователя могут указывать на суицидальные настроения. Можно было бы распространить эту практику и на борьбу с терроризмом, но здесь, в отличие от профилактики самоубийств, нет единого стандартного контента, который применим в любой ситуации, пишет Bloomberg Businessweek. По всей видимости, необходимо изучить имеющиеся инструменты, и, в случае успеха — их масштабировать.
«Исследования, кроме того, показывают, что наиболее очевидные варианты — как то демонстрация пользователю статей с альтернативной точкой зрения, на деле усиливают поляризацию мнений», — писал в феврале Цукерберг. Неизбежно возникают и глобальные философские вопросы. Где грань между фильтрами и цензурой? Свободой и мерой допустимого?