Найти в Дзене
путь от транжиры до рантье

Социальные сети как усилитель сомнений

(почему кажется, что «все уже всё поняли», и только ты отстаёшь) Иногда это происходит незаметно. Сначала один пост. Потом второй. Потом третий — от «совсем другого человека». И вдруг внутри появляется мысль:
«Если столько людей об этом пишут, значит, что-то в этом есть». Я попадался на этом не раз. И каждый раз было ощущение, что я мыслю самостоятельно. А потом я понял: возможно, мной просто грамотно управляют алгоритмы. Есть психологический эффект: если мы видим одно и то же мнение часто, нам начинает казаться, что оно массовое. Даже если это не так. В цифровой среде этот эффект усиливается. Исследования Pew Research Center показывают: пользователи склонны переоценивать распространённость мнений, которые часто видят в своей ленте. И вот тут начинается самое интересное. Вы видите не «общественное мнение». Вы видите персонализированную выборку. Но ощущается это как большинство. Алгоритмы соцсетей не проверяют факты. Они измеряют вовлечённость. Лайки.
Комментарии. Время просмотра. Конт
Оглавление

(почему кажется, что «все уже всё поняли», и только ты отстаёшь)

Иногда это происходит незаметно.

Сначала один пост. Потом второй. Потом третий — от «совсем другого человека». И вдруг внутри появляется мысль:
«Если столько людей об этом пишут, значит, что-то в этом есть».

Я попадался на этом не раз.

И каждый раз было ощущение, что я мыслю самостоятельно. А потом я понял: возможно, мной просто грамотно управляют алгоритмы.

1. Иллюзия большинства

Есть психологический эффект: если мы видим одно и то же мнение часто, нам начинает казаться, что оно массовое. Даже если это не так.

В цифровой среде этот эффект усиливается. Исследования Pew Research Center показывают: пользователи склонны переоценивать распространённость мнений, которые часто видят в своей ленте.

И вот тут начинается самое интересное.

Вы видите не «общественное мнение». Вы видите персонализированную выборку. Но ощущается это как большинство.

2. Алгоритмы не про правду

Алгоритмы соцсетей не проверяют факты. Они измеряют вовлечённость. Лайки.
Комментарии. Время просмотра.

Контент, вызывающий сильную эмоцию — особенно возмущение или страх — распространяется быстрее. И если конспирологическая версия вызывает бурную реакцию, алгоритм решает: «Людям нравится».

На самом деле людям может просто быть страшно.

3. Информационный пузырь

-2

Термин «filter bubble» описывает ситуацию, когда человек видит в основном контент, совпадающий с его взглядами.

Вы поставили лайк одному сомнительному разбору — алгоритм делает вывод.
Вы задержались на видео с альтернативной версией — алгоритм усиливает сигнал. И через неделю создаётся ощущение: «Все вокруг об этом говорят».

Хотя «все» — это ваша персональная лента.

Я однажды специально проверил: зашёл в аккаунт знакомого с противоположными взглядами. У него в ленте была совершенно другая реальность.

Это было… отрезвляюще.

4. Почему повторение усиливает веру

Есть эффект «illusory truth effect»: многократно повторённая информация начинает восприниматься как более правдоподобная. Даже если она изначально сомнительная.

Повтор снижает когнитивное напряжение. Мозгу легче согласиться, чем каждый раз проверять.

И вот тут я поймал себя на неприятном моменте: некоторые версии казались мне убедительными просто потому, что я слышал их много раз.

Не потому что я их проверил.

5. Мой момент прозрения

-3

Однажды я заметил, что почти автоматически ожидаю определённую интерпретацию новости. До того, как прочитал её полностью.

Это был тревожный сигнал.

Значит, не я анализирую информацию. Я уже внутри сценария.

И если быть честным — это ощущение «я знаю, как всё устроено» очень приятно.

Но это иллюзия контроля.

6. Что с этим делать (без паранойи)

Я не сторонник идеи «удалить все соцсети и уйти в лес». Но есть несколько простых приёмов, которые реально помогают:

🔹 Осознанно искать альтернативные источники

Не чтобы поверить им — а чтобы увидеть другую картину.

🔹 Проверять первоисточник

Если новость пересказывают — найти оригинал.

🔹 Делать паузу

Сильная эмоция — сигнал остановиться.

🔹 Спрашивать себя:

«Если бы я видел противоположную версию так же часто, изменилось бы моё мнение?»

Вопрос неприятный. Но полезный.

Небольшой честный вывод

Социальные сети не создают конспирологию с нуля. Но они усиливают сомнения, ускоряют распространение версий и создают ощущение массовости. И если раньше путь от слуха до убеждения занимал годы, теперь — дни. Иногда часы.

Это не повод впадать в панику. Это повод помнить: лента — не реальность.

Хочу услышать вас

Замечали ли вы эффект «все об этом говорят», а потом оказывалось, что это только ваша лента? Были ли случаи, когда алгоритмы буквально «засосали» в одну тему?

Напишите в комментариях — интересно сравнить ощущения.

Что дальше в цикле

Мы уже обсудили:

1️⃣ Почему мозг любит теории заговора
2️⃣
Почему реальные заговоры существовали
3️⃣
Как отличить расследование от конспирологии
4️⃣
Почему интеллект не даёт иммунитета
5️⃣ Как соцсети усиливают сомнения

В следующей статье предлагаю разобрать тему ещё глубже:

Почему в периоды кризисов и нестабильности конспирология расцветает особенно быстро.

-4

Это будет разговор уже про страх, контроль и коллективную тревогу.

Если вам близок такой спокойный разбор без истерик — подпишитесь на канал, чтобы не пропустить продолжение. Дальше будет чуть серьёзнее.

Источники

  • Отчёты Pew Research Center о цифровых медиапривычках
  • Исследования эффекта illusory truth
  • Работы по filter bubble и алгоритмической персонализации