Добавить в корзинуПозвонить
Найти в Дзене
Дежурный smmщик

Усилия по модерации контента теряют свою силу?

Усилия по ограничению нежелательного контента в соцсетях ослабевают по мере изменения корпоративных приоритетов, пишет Axios. Почему это важно: крупные онлайн-платформы, которые когда-то соревновались в том, чтобы проявлять бдительность в отношении дезинформации, оскорблений и разжигания ненависти, теперь выбирают совершенно другие пути контроля за своим контентом. После президентских выборов в США в 2016 году и скандала с Cambridge Analytica в Facebook* все крупные платформы стремились показать общественности и законодателям, что они борются с тем, что критики назвали потоком дезинформации и токсичных постов. Компании ужесточили политику и наняли легионы модераторов в рамках кампании, которая продолжалась во время пандемии COVID-19, когда платформы были наводнены медицинской дезинформацией. Но сегодня этот подход ослабевает. Теперь платформы, включая Facebook* и Instagram*, все больше полагаются на Надзорный совет в решении самых сложных вопросов, с которыми они сталкиваются. В Meta*

Усилия по ограничению нежелательного контента в соцсетях ослабевают по мере изменения корпоративных приоритетов, пишет Axios.

Почему это важно: крупные онлайн-платформы, которые когда-то соревновались в том, чтобы проявлять бдительность в отношении дезинформации, оскорблений и разжигания ненависти, теперь выбирают совершенно другие пути контроля за своим контентом.

После президентских выборов в США в 2016 году и скандала с Cambridge Analytica в Facebook* все крупные платформы стремились показать общественности и законодателям, что они борются с тем, что критики назвали потоком дезинформации и токсичных постов. Компании ужесточили политику и наняли легионы модераторов в рамках кампании, которая продолжалась во время пандемии COVID-19, когда платформы были наводнены медицинской дезинформацией. Но сегодня этот подход ослабевает.

Теперь платформы, включая Facebook* и Instagram*, все больше полагаются на Надзорный совет в решении самых сложных вопросов, с которыми они сталкиваются. В Meta* по-прежнему работают большие команды по модерации контента как внутри компании, так и через подрядчиков. Но недавний акцент на создании метавселенной отвлек внимание генерального директора Марка Цукерберга и его ключевых помощников от проблем с контентом. Twitter под руководством Илона Маска, тем временем, также выбрал радикально иной курс. Недавно сервис предложил широкую амнистию аккаунтам, ранее запрещенным за нарушение правил, после того, как опрос подписчиков Маска в Twitter поддержал этот шаг. Маск заявил, что он выступает за широкие принципы свободы слова, но критики утверждают, что его изменения привели к всплеску расистских, антисемитских высказываний и других видов экстремизма в Twitter. Массовые сокращения персонала Маска в Twitter также уничтожили команды, которые ранее занимались разработкой и обеспечением соблюдения его политики в отношении контента, особенно за пределами США. Согласно New York Times, в YouTube от Google недавно были уволены несколько менеджеров и экспертов по контентной политике.

Такие платформы, как Facebook*, Twitter и YouTube, все чаще полагаются на автоматизированные системы для определения контента, который может нарушать их политику. Но политику формировали люди, и модераторы все равно должны пересматривать решения, изучать более сложные случаи и разрешать жалобы. Неудивительно, что в момент, когда экономический спад вызывает массовые увольнения в отрасли, компании выбрали модерацию контента в качестве основной области для сокращений. В конце концов, эти отделы не несут прямой ответственности за доходы. Но они действительно играют большую роль для рекламодателей, которые не хотят, чтобы их рекламные сообщения появлялись рядом с хейтом.

Что дальше: появление генеративного искусственного интеллекта может привести к новому наплыву автоматизированных сообщений в социальных сетях, которые будут «проверять» платформы на их способность к модерации.

*входит в Meta – организацию, запрещенную на территории РФ