Найти тему

Социальные платформы столкнулись с серьезным кризисом контента: регулирование приближается

Модерация контента стала главным приоритетом для социальных платформ, включая Facebook, YouTube, Twitter, Pinterest и LinkedIn, на фоне растущего общественного и политического контроля и эскалации кризисов, связанных с контентом.

Бренды, законодатели и даже руководители социальных сетей осознают тот факт, что платформы не справляются с задачей модерирования контента самостоятельно, в первую очередь из-за их огромного масштаба. Масштаб проблемы и сложность ее решения примерно коррелируют с масштабом самих платформ.

Даже если 99% вредоносного контента будет удалено с большой платформы, огромное количество все равно может остаться. Даже руководители социальных платформ считают, что их платформы должны находиться под надзором внешних заинтересованных сторон, причем некоторые либо публично заявляют об этом, либо проводят частные встречи с регулирующими органами. Технические руководители, включая генерального директора Facebook Марка Цукерберга, генерального директора Google Сундара Пичаи и генерального директора Twitter Джека Дорси, выступили в поддержку нового регулирования контента платформы.

Социальные платформы стремятся обеспечить правильную модерацию контента, но, скорее всего, скоро произойдет смена парадигмы в том, как онлайн-контент управляется на платформах. Дополнительные заинтересованные стороны - такие как бренды, законодатели или даже сами пользователи - будут все чаще привлекаться для помощи в этих усилиях.

Наиболее важно то, что регулирующие органы во всем мире, вероятно, активизируют попытки повлиять на модерацию онлайн-контента или контролировать ее, и первые попытки, вероятно, будут предприняты ЕС, который также был первым двигателем в создании регулирования конфиденциальности данных. В ближайшем будущем мы ожидаем, что регулирование будет формироваться в двух областях: правительства могут потребовать от компаний более детального раскрытия информации о своих соответствующих усилиях по модерации; а правительства будут создавать правила, специально направленные на сдерживание политического содержания.

В Отчете о модерации контента анализируют одну из наиболее актуальных проблем, с которыми в настоящее время сталкиваются социальные платформы, - модерацию контента - и излагает, как мы ожидаем развития дебатов и почему, по нашему мнению, скоро появится регулирование.

В этом отчете также используются собственные данные, собранные в ходе опроса Digital Trust Survey 2019, онлайн-опроса 1974 респондентов из собственной панели Business Insider, проведенного с 23 апреля по 16 мая 2019 года. Респондентами нашего опроса Digital Trust Survey являются пользователи социальных сетей и они, как правило, моложе , мужчины, состоятельные люди из Северной Америки и первые приверженцы технологий.

В результате респонденты в нашей выборке с большей вероятностью будут знать об изменениях на технических платформах, и у них также есть деньги, которые они могут потратить, нажимая на рекламу, которую они видят на платформах. Таким образом, хотя наша выборка не является репрезентативной для населения в целом, она дает возможность узнать настроения среди высокоценного сегмента.

В этом отчете упоминаются следующие компании: AT&T, Epic Games, Facebook, Google, Johnson & Johnson, LinkedIn, PepsiCo, Pinterest, Snapchat, Twitter, Verizon, Walmart, YouTube.

Вот несколько ключевых выводов из отчета:

  1. Платформы с неадекватными или неэффективными мерами модерации контента сталкиваются с серьезными последствиями, такими как бойкоты брендов, снижение доверия среди пользователей и даже отказ от платформы. Разочарование по поводу неэффективной модерации контента может привести к тому, что пользователи вообще откажутся от платформ, по крайней мере, среди респондентов нашего опроса о цифровом доверии 2019 года: более четверти (27%) респондентов заявили, что прекратили бы использовать социальную платформу, если бы она продолжала разрешать вредоносный контент.
  2. Более широкая группа заинтересованных сторон, таких как бренды, законодатели или даже пользователи, будут все больше стремиться влиять или контролировать то, как регулируется онлайн-контент. «Многосторонность» может понравиться по крайней мере некоторым пользователям платформы: 70% респондентов нашего опроса о цифровом доверии 2019 года считают, что последнее слово при определении того, какой контент разрешен на платформах, должны иметь заинтересованные стороны, помимо социальных компаний.
  3. Регулирующие органы во всем мире могут усилить свои усилия по контролю за модерацией онлайн-контента. За последний год правительства нескольких стран предложили новые правила, в первую очередь «Закон ЕС о цифровых услугах», который повлияет на то, как технические платформы модерируют контент.
  4. По мере того, как ослабевает уверенность в способности платформ к саморегулированию, предлагаются и применяются нерегулируемые решения. Две формы такого ненормативного решения появились в прошлом году, в том числе Глобальный альянс ответственных СМИ (GARM) в июне и Наблюдательный совет Facebook в сентябре.
  5. По мере того, как растет количество проверок, небольшие платформы могут добиться большего успеха в привлечении рекламных расходов, позиционируя себя как надежную среду. Респонденты нашего опроса о цифровом доверии 2019 года считают, что Linkedin, Pinterest или Snapchat являются платформами с наименьшей вероятностью показывать им обманчивый контент из всех опрошенных платформ.