Найти в Дзене

Как "алгоритмы" формируют наши политические взгляды

Вы уверены, что ваши политические убеждения – это продукт вашего свободного выбора? Что вы самостоятельно, без чьего-либо влияния пришли к тем взглядам, которых придерживаетесь сейчас? Приготовьтесь к неприятной правде: с большой вероятностью ваше мнение по ключевым вопросам было сформировано алгоритмами соцсетей, которые вы даже не замечали. Это не теория заговора – это цифровая реальность, в которой мы все оказались, даже не успев понять правила игры.

Сегодня вы просто читаете новости от немного предвзятого источника. Через месяц – смотрите разборы "экспертов", которые уже открыто называют оппонентов идиотами. Через полгода – сами пишете гневные комментарии под постами людей
Сегодня вы просто читаете новости от немного предвзятого источника. Через месяц – смотрите разборы "экспертов", которые уже открыто называют оппонентов идиотами. Через полгода – сами пишете гневные комментарии под постами людей

Представьте, что ваш мозг – это сад. Каждое прочитанное мнение, каждая новость, каждый пост в соцсетях – это семена, которые в нем прорастают. Теперь представьте, что у этого сада есть невидимый садовник – алгоритм, который решает, какие семена вам показать, а какие – нет. Он знает, на какие заголовки вы чаще кликаете, сколько секунд смотрите тот или иной контент, какие посты вызывают у вас гнев, а какие – одобрение. И он методично подкармливает вас тем, что вызывает у вас сильные эмоции – потому что именно это удерживает вас на платформе.

Проблема в том, что гнев и возмущение – самые "липкие" эмоции. Мы проводим в 3 раза больше времени, читая контент, который нас злит, чем тот, с которым мы согласны. Алгоритмы это знают. И поэтому они показывают вам все больше крайних позиций, провокационных высказываний, упрощенных до карикатуры точек зрения. Постепенно, день за днем, ваш информационный рацион становится все более радикальным – левым или правым, либеральным или консервативным – неважно. Важно, что вы даже не замечаете, как границы допустимого в вашей голове смещаются.

Этот процесс психологи называют "алгоритмической радикализацией". Он происходит незаметно, как постепенное нагревание воды, в которой варят лягушку. Сегодня вы просто читаете новости от немного предвзятого источника. Через месяц – смотрите разборы "экспертов", которые уже открыто называют оппонентов идиотами. Через полгода – сами пишете гневные комментарии под постами людей, которые еще недавно были вашими единомышленниками, но теперь кажутся вам недостаточно "чистыми" в своих взглядах.

Соцсети создают то, что исследователи называют "эффектом эхо-камеры" – ситуацию, когда человек слышит только повторение собственного мнения, усиленное и искаженное, как крик в узком ущелье. Вы думаете, что видите "объективную картину", но на самом деле алгоритмы уже отфильтровали все, что могло бы ее пошатнуть. Вам кажется, что "все нормальные люди так думают", потому что в вашей ленте действительно все так думают – остальных алгоритм просто не показывает.

Особенно страшно то, как это влияет на наше восприятие оппонентов. Алгоритмы показывают нам не лучшие аргументы другой стороны, а их самые крайние, нелепые высказывания. В результате мы начинаем ненавидеть не реальных людей с иными взглядами, а созданные алгоритмами карикатуры на них. Политический оппонент в нашей голове превращается в дурака, подлеца или фанатика – потому что только такие его образы попадают в нашу ленту.

Но самое коварное – это то, как алгоритмы эксплуатируют нашу потребность в простых ответах. Современный мир сложен, проблемы – многогранны, а решения – неочевидны. Но алгоритмы поощряют контент, который предлагает простые объяснения: "Во всем виноваты мигранты", "Это все происки капиталистов", "Все дело в заговоре элит". Чем проще объяснение – тем больше вовлеченность, тем дольше люди остаются на платформе. В результате мы все чаще мыслим штампами и все реже способны на сложные, взвешенные суждения.

Что делать? Первое – осознать проблему. Второе – намеренно выходить за пределы своей "эхо-камеры": читать СМИ с разной позицией, подписываться на людей, с которыми не согласны (именно подписываться – алгоритмы редко показывают таких людей в рекомендациях). Третье – замедлять свои реакции: прежде чем поделиться гневным постом или написать язвительный комментарий, спросите себя: "Я действительно так думаю – или алгоритмы подвели меня к этой эмоции?"

Мы не можем полностью избежать влияния алгоритмов – они стали частью нашей информационной экосистемы. Но мы можем перестать быть их слепыми пешками. Ваши политические взгляды должны быть вашим выбором – а не результатом тщательно спланированной цифровой манипуляции, цель которой – просто удерживать вас на платформе подольше.

В следующий раз, когда вы почувствуете, что какой-то пост вызывает у вас особенно сильные эмоции, остановитесь. Возможно, это не вы так яростно реагируете на контент – это контент был специально подобран, чтобы вызвать у вас такую реакцию. И тогда главный политический выбор – не между правыми и левыми, а между осознанностью и манипуляцией.