В Сан-Франциско Facebook начал присваивать своим пользователям оценку репутации, предсказывая их надежность по шкале от 0 до 1.
Ранее неподтвержденная система рейтингов, которую Facebook разработала за последний год, показывает, что борьба с играми технических систем превратилась в измерение доверия пользователей, чтобы помочь идентифицировать злоумышленников.
Facebook разработал свои оценки репутации в рамках своих усилий против поддельных новостей, сказала в интервью Тесса Лайонс, продакт-менеджер, который отвечает за борьбу с дезинформацией. Компания долгое время полагалась на своих пользователей, чтобы сообщать о проблематичном контенте, но, поскольку Facebook дал людям больше возможностей, часть пользователей начали сообщать о некоторых мнениях как о неправде, что привело к новому повороту информационной войны, за который пришлось отвечать.
Оценка надежности пользователей от 0 до 1 не должна быть абсолютным показателем доверия к человеку, сказал Лайонс, и нет одного единственного показателя репутации, который назначается пользователям. Скорее, оценка является одним из измерений среди тысяч новых поведенческих подсказок, которые Facebook теперь принимает во внимание, поскольку он стремится понять риск. Facebook также отслеживает, какие пользователи склонны отмечать контент, опубликованный другими пользователями, как проблематичный, и какие издатели считаются заслуживающими доверия пользователями.
Но то, как работают эти новые системы доверия, очень непрозрачно, и компании опасаются их обсуждать, отчасти потому, что это может привести к затруднительному положению, в котором все чаще оказываются фирмы, когда они взвешивают призывы к большей прозрачности вокруг их принятия решений.
Система Facebook, созданная для того, чтобы пользователи отмечали потенциально неприемлемый контент, во многом стала полем битвы. Активист Твиттер-аккаунта Sleeping Giants призвал последователей взять технологические компании, чтобы справиться с консервативным теоретиком заговора Алексом Джонсом и его сайтом Infowars, что привело к потоку сообщений о ненависти, в результате чего он и Infowars были запрещены в Facebook и других технических компаниях. В то время руководители компании задавались вопросом, является ли массовая отчетность о контенте Джонса частью попытки обмануть системы Facebook. Ложные сообщения также стали тактикой в ультраправых кампаниях онлайн-преследований, говорят эксперты.
Apple, Facebook, YouTube и Spotify перешли к удалению Контента известного правого ток-шоу Алекса Джонса за нарушение политики ненависти.
Технологические компании имеют долгую историю использования алгоритмов для создания всевозможных прогнозов о людях, в том числе о том, насколько вероятно, что они будут покупать продукты и используют ли они ложную идентичность. Но по мере распространения дезинформации компании принимают все более изощренные редакционные решения о том, кто заслуживает доверия.
В 2015 году Facebook дал пользователям возможность сообщать о сообщениях, которые они считают ложными. Вкладка в правом верхнем углу каждого сообщения Facebook позволяет пользователям сообщать о проблематичном контенте по разным причинам, включая порнографию, насилие, несанкционированные продажи, ненавистнические высказывания и ложные новости.
Лайонс сказала, что многие люди сообщают о некоторых якобы ложных сообщениях просто потому, что они не согласны с содержанием. Поскольку Facebook пересылает сообщения, помеченные как ложные, сторонним проверщикам фактов, она сказала, что важно создать системы для оценки того, могут ли сообщения быть ложными, чтобы эффективно использовать время проверки фактов. Это привело ее команду к разработке способов оценки того, заслуживают ли сами люди, которые отмечали сообщения как ложные.