Как новостная лента нарушает принципы морали, и что с этим делать Цукербергу
“Объёмы видео и другого, рассчитанного на широкую аудиторию, контента сильно возросли за последние несколько лет. Преобладание публичной активности над постами ваших друзей и родственников привело к тому, что новостная лента отошла от главного принципа Facebook — помогать людям соединяться друг с другом. Мы чувствуем свою ответственность за то, чтобы наши сервисы действительно улучшали жизнь пользователей, а не просто позволяли весело убивать время. (…) Совсем скоро вы увидите первые изменения в новостной ленте” — это заявление Марка Цукерберга, выпущенное в январе 2018 года.
Моральная ответственность социальных сетей
В 2017 году Facebook был одним из основных участников негативных новостей: Fake news, победа Трампа, hate speech во время геноцида Рохинья, поляризация общества.
Социальные сети постепенно становятся институтом, который оказывает глубокое влияние на наши жизни. Социальные сети определяют какие новости мы видим, во что мы верим, с кем и как общаемся. Подобные конструирующие жизнь общества институты часто называют базовыми. К ним относятся семья, система образования, экономические отношения (в другой статье (А)морально: базовый институт — основание регулировать "дела внутри семьи").
Сегодня, социальные сети — главный источник информации. Более того, для многих Facebook — монополист по распространению новостей. Тут работает сетевой эффект: чем больше людей пользуются социальной сетью, тем больше людей подключаются именно к ней. Нет смысла пользоваться Google+, если все друзья сидят в Facebook.
Социальные сети намного удобнее газет: можно одновременно просматривать и глобальные новости, и происходящее у знакомых. Исследование 2017 года показало, что 59% людей называют социальные сети основным источником новостей. Раньше люди могли читать 3-4 разных СМИ, но теперь все просто подписаны на страницы изданий в Facebook. Тем самым, Facebook становится создателем нашей информационной среды.
Настолько высокий уровень влияния неизбежно порождает моральную ответственность. Действия Facebook автоматически сказываются на каждом из нас (победа Трампа повлияла даже на людей, которые не пользуются Facebook). Пользуясь известной максимой: “Моя свобода заканчивается там, где начинается свобода другого”, у Facebook почти нет свободы: каждое действие влияет на сотни миллионов пользователей.
“Для меня очень важно, чтобы выросшие Макс и Август чувствовали, что построенное их отцом положительно повлияло на мир” — говорит Цукерберг.
Проблемы новостного алгоритма
Кроме большого количества рекламы, на которую обратил внимание Цукерберг, новостной алгоритм приводит к другим, не менее важным, проблемам.
Сегодняшний новостной алгоритм работает по принципу похожим на вкладку “тренды” на YouTube: первыми человек видит посты, набравшие наибольшее количество лайков, репостов и комментариев от друзей (и, возможно, друзей друзей). Казалось бы очень удобно, однако, на самом деле, приводит к достаточно неприятным последствиям.
Корень проблемы — люди не ставят “мне нравится” под грустными новостями. В итоге, Facebook не показывал новости об убийствах полицией чёрных подростков. Одна из популярных авторок на Twitter написала пост, как Facebook скрыл от неё смерть её друга. Никто не лайкает такие новости, и алгоритм не показывает их. Да и новое улучшение в виде плачущего смайла тоже выглядит странной реакцией на чью-то смерть.
Вторая проблема — появление эхо-комнат и развитие поляризации. Если раньше люди обсуждали новости в барах или на работе, где неизбежно приходилось спорить с людьми разных взглядов, то сегодня основная платформа для дискуссии — комментарии в социальных сетях. Это действительно удобнее, но проблема в том, что алгоритм подписок автоматически исключает другое мнение. Либералы читают только либералов, а консерваторы консерваторов. В итоге, мы получаем два абсолютно несвязанных мира.
Этическая плоскость
Новостные алгоритмы нарушают два базовых принципа морали: принцип автономии и принцип информированного согласия.
Информированное согласие: перед использованием человек должен знать все плюсы и минусы продукта. Пользователь должен знать, на что соглашается.
Facebook не предупреждает пользователей о принципах работы новостного алгоритма, социальная сеть просто предлагает сделать ленту “удобнее” и “интереснее”.
Когда люди соглашаются на использование алгоритма, они, на самом деле не знают, какой продукт покупают. Никто не читает 50-страничные тексты прежде чем нажать на кнопку “я ознакомлен и согласен”, а настойчивое появление напоминаний и обновлений подталкивает людей перейти на новый алгоритм. Человек не выбирает, как структурировано его информационное пространство.
Проблема автономии базируется на чрезмерном патернализме новостной ленты. Инженеры Facebook действительно хотят сделать мир лучше, но есть что-то некорректное в том, что они решают надо ли пользователям больше публикаций друзей, больше социально важных новостей или больше смешных мемов. Это похоже на мудрого отца, который решает, что показывать глупым детям. Такой подход, несмотря на благие цели, слишком сильно ограничивает автономию людей (если Вам интересны проблемы патернализма, прочитайте этот текст (А)морально).
Возможное решение
Для того, чтобы не нарушать принцип информированного согласия, социальная сеть должна предупреждать о побочных эффектах. Это можно сравнить с лекарством. Предложение изменить новостную ленту должно состоять из двух компонент: плюсы и опасности. Например: “Новый алгоритм поможет вам видеть больше публикаций друзей, но помните, что это может привести к созданию однобокой картины” или “Ранжирование постов может проводиться по лайкам, и вы будете видеть наиболее популярные посты, но помните, что тяжёлые новости редко становятся популярными”.
Второй рецепт — давать людям выбирать между несколькими равнозначными новостными алгоритмами. Кто-то сможет выбрать “важные новости”, кто-то “публикации друзей и родственников”, кто-то “публикации блогеров”, а кто-то “хронологический порядок”. Тем самым каждый пользователь сможет сам настроить приоритеты своей ленты. Это немного решает проблему патернализма (однако не полностью, так как пространство выбора всё равно определяет Facebook). Первое решение остаётся и в этом случае: каждый алгоритм должен иметь описание с его плюсами и минусами.
Очень важно, чтобы социальные сети отказались от манипуляции при презентации продукта пользователям. Отсутствие геймификации, использования теории фреймов (“Хотите ли вы видеть популярные посты?” против “Хотите ли вы не видеть непопулярные посты?”), смайлик, который предлагает переключиться на новый алгоритм — все подобные практики мешают пользователю сделать продуманный выбор удобного ему алгоритма (про практики манипуляции подробнее здесь).
Вывод
Социальные сети — информационная среда современного человека. Их эффект на общество настолько широкий, что у провайдеров как Facebook появляется моральная ответственность перед обществом. Инженеры Facebook действительно могут утверждать, что они конструируют мир. На сегодняшний день, информационное пространство Facebook нарушает принципы информированного согласия и автономии. Мир создаётся без ведома и согласия его обитателей. Для того, чтобы продолжать создавать общественное благо, социальные сети должны решать эти проблемы.