Добавить в корзинуПозвонить
Найти в Дзене

Алгоритмы убивают: как TikTok и YouTube превращают людей в экстремистов

Часть 1. Бизнес-модель, которая убивает В основе алгоритмов TikTok, YouTube и других соцсетей лежит простая логика: максимизировать время, проведённое пользователем на платформе. Чем дольше вы смотрите — тем больше рекламы вам покажут. Алгоритм изучает ваши лайки, просмотры, время задержки и предлагает всё более релевантный контент. Проблема в том, что «релевантный» часто означает «всё более экстремальный». Часть 2. Эскалатор в кроличью нору Механизм радикализации работает как эскалатор. Вы начинаете с интереса — смотрите ролик о здоровом питании или политическом анализе. Алгоритм видит ваше вовлечение и предлагает более узкий контент: «Жёсткая правда о ГМО» или «Крах либеральной системы». Чтобы удержать внимание, система начинает подсовывать контент с яркими эмоциями — гнев, страх, возмущение. Это работает лучше нейтрального анализа. Вы попадаете в информационный пузырь, где все вокруг разделяют и усиливают ваши взгляды. Контраргументы алгоритм почти не показывает — они не вовлекают.

Вы смотрели видео про здоровое питание. Через час алгоритм предложил вам «правду о ГМО». Ещё через час — «мировой заговор фармкомпаний». А через неделю вы уже уверены, что Земля плоская, а правительство скрывает лекарство от рака. Как безобидная рекомендательная система превращает обычных людей в радикалов?

Часть 1. Бизнес-модель, которая убивает

В основе алгоритмов TikTok, YouTube и других соцсетей лежит простая логика: максимизировать время, проведённое пользователем на платформе. Чем дольше вы смотрите — тем больше рекламы вам покажут. Алгоритм изучает ваши лайки, просмотры, время задержки и предлагает всё более релевантный контент. Проблема в том, что «релевантный» часто означает «всё более экстремальный».

Часть 2. Эскалатор в кроличью нору

Механизм радикализации работает как эскалатор. Вы начинаете с интереса — смотрите ролик о здоровом питании или политическом анализе. Алгоритм видит ваше вовлечение и предлагает более узкий контент: «Жёсткая правда о ГМО» или «Крах либеральной системы».

Чтобы удержать внимание, система начинает подсовывать контент с яркими эмоциями — гнев, страх, возмущение. Это работает лучше нейтрального анализа. Вы попадаете в информационный пузырь, где все вокруг разделяют и усиливают ваши взгляды. Контраргументы алгоритм почти не показывает — они не вовлекают. Формируется иллюзия, что «так думают все адекватные люди».

Часть 3. Психология дофаминовой ловушки

Гнев и возмущение — одни из самых «липких» эмоций. Контент, их вызывающий, получает больше лайков, комментариев и репостов. Простая картина мира снимает когнитивную нагрузку, даёт чувство определённости. Алгоритм поощряет конспирологию и популизм.

Подтверждение своей правоты вызывает приятные эмоции. Алгоритм становится машиной по производству этого чувства. Вы не замечаете, как каждый следующий шаг уводит вас дальше от реальности.

-2

Часть 4. Реальные последствия

Исследования показывают, что рекомендации YouTube после просмотра правого или левого контента систематически уводят пользователей к более радикальным версиям тех же идей. Граждане одной страны живут в параллельных информационных реальностях, неспособных к диалогу.

Фейковые новости и теории заговора распространяются в закрытых группах и выплёскиваются в реальный мир, приводя к самосудам, панике и трагедиям. Алгоритм не различает правду и ложь. Он просто предсказывает, на что вы кликнете.

Часть 5. Кто виноват

Разработчики не планировали раскалывать общества. Они решали задачу максимизации вовлечения. Но они создали систему, которая не понимает смысла, а лишь предсказывает клики. Технология, оптимизированная под узкую бизнес-цель, порождает непредвиденные системные катастрофы.

Итог: Мы отдали ключ от общественного диалога и формирования мнений машине, задача которой — продавать наше внимание. Алгоритмы соцсетей превратились в гигантскую, неконтролируемую социальную машину, которая поощряет самые тёмные стороны человеческой природы, потому что они — самый дешёвый способ добиться вовлечения. Это не злой умысел. Это фатальный побочный эффект гениальной математики, лишённой морали.

-3

Подписывайтесь на канал, чтобы не пропустить новые расследования: dzen.ru/iceberg_history

Как вы думаете, можно ли реформировать алгоритмы, не уничтожив бизнес-модель соцсетей? Или эта проблема не имеет технического решения?

Что важнее: право человека на персонализированную ленту или здоровье общественного диалога?

#алгоритмы #соцсети #экстремизм #TikTok #YouTube #общество #технологии #закадромистории