Facebook тихо экспериментирует с уменьшением количества политического контента, который он показывает в лентах пользователей. Этот шаг является молчаливым признанием того, что то, как работают алгоритмы компании, может быть проблемой.
Алгоритмы соцсетей в значительной степени зависят от поведения людей. Концепция мудрости толпы предполагает, что использование сигналов от действий, мнений и предпочтений других в качестве руководства приведет к разумным решениям. Например, коллективные прогнозы обычно более точны, чем индивидуальные. Коллективный интеллект используется для прогнозирования финансовых рынков, спорта, выборов и даже вспышек болезней. На протяжении миллионов лет эволюции эти принципы были закодированы в человеческом мозге в форме когнитивных предубеждений. Если все начнут бежать, вам тоже следует начать бежать.
Технологии позволяют людям получать доступ к сигналам от гораздо большего числа других людей, большинство из которых они не знают. Приложения активно используют эти сигналы популярности или «вовлеченности», начиная с выбора результатов поисковой системы и заканчивая рекомендациями музыки и видео. Когда приложения управляются такими сигналами, как вовлеченность, а не явными запросами в поисковых системах, это может привести к нежелательным непреднамеренным последствиям.
Социальные сети, такие как Facebook, Instagram, Twitter, YouTube и TikTok, в значительной степени полагаются на алгоритмы искусственного интеллекта для ранжирования и рекомендации контента. Эти алгоритмы принимают в качестве входных данных то, что вам нравится, что вы комментируете и чем делитесь — другими словами, контентом, с которым вы взаимодействуете. Цель алгоритмов - максимизировать вовлеченность, выясняя, что нравится людям, и размещая это сверху.
На первый взгляд это кажется разумным. Если людям нравятся достоверные новости, мнения экспертов и забавные видео, эти алгоритмы должны идентифицировать такой контент. Но «мудрость» толпы делает здесь ключевое предположение: рекомендация того, что популярно, не всегда способствует качественному контенту.
Недавно был проведен эксперимент с использованием приложения для обучения новостной грамотности под названием Fakey. Игра имитирует новостную ленту соцсетей, таких как Facebook и Twitter. Игроки видят смесь публикаций с ложными инфоповодами, лженаукой, из источников с теориями заговора, а также из нормальных источников. Они получают очки за то, что делятся новостями из надежных источников или им нравятся новости оттуда, а также за то, что отмечают статьи с низким уровнем доверия. Было обнаружено, что игроки с большей вероятностью будут лайкать или делиться и с меньшей вероятностью отмечать статьи из источников с низким уровнем доверия, когда они видят, что многие другие пользователи взаимодействовали с этими статьями. Таким образом, подверженность метрикам вовлеченности создает уязвимость.
Почему так происходит? Во-первых, из-за склонности людей общаться с похожими людьми их онлайн-поле не очень разнообразно. Легкость, с которой пользователь может разобщить тех, с кем он не согласен, толкает людей в однородные сообщества, часто называемые эхо-камерами.
Во-вторых, поскольку друзья многих людей являются друзьями друг друга, они влияют друг на друга. Известный эксперимент продемонстрировал, что знание того, какая музыка нравится вашим друзьям, влияет на ваши собственные заявленные предпочтения. Ваше социальное желание соответствовать искажает ваше независимое суждение.
Что делать? Технологические платформы в настоящее время находятся в обороне. Они становятся все более агрессивными во время выборов или других событий, в рамках которых может распространятся дезинформация. Превентивный подход состоял бы в том, чтобы добавить некоторые препятствия. Например. бесконечные и бездумные лайки и репосты могли бы быть заторможены капчами или предупреждающими подсказками. Это не только уменьшило бы возможности для манипуляций, но и люди смогли бы уделять больше внимания тому, что они читают или хотят репостнуть.