Добавить в корзинуПозвонить
Найти в Дзене
NFW

ИИ как инструмент манипуляции: как алгоритмы влияют на общественное мнение

Искусственный интеллект всё активнее используется не только в бизнесе, но и в сфере информации. Алгоритмы анализируют поведение пользователей, их интересы, реакции и на основе этого формируют персонализированную ленту контента. В результате каждый человек видит свою «картину мира», созданную машиной. Это удобно, но именно здесь возникает риск скрытого влияния на общественное мнение. Социальные сети — яркий пример алгоритмического воздействия. Платформы вроде Facebook и TikTok используют системы рекомендаций, которые продвигают наиболее «вовлекающий» контент. Алгоритмам важно удержать внимание пользователя как можно дольше, поэтому они чаще показывают эмоциональные, провокационные или конфликтные материалы. Это усиливает поляризацию и формирует эффект информационного пузыря. Отдельная проблема — микротаргетированная реклама. Системы ИИ позволяют настраивать политические и социальные сообщения под конкретные группы людей с учётом их страхов, ценностей и убеждений. Скандал вокруг Cambridg

Искусственный интеллект всё активнее используется не только в бизнесе, но и в сфере информации. Алгоритмы анализируют поведение пользователей, их интересы, реакции и на основе этого формируют персонализированную ленту контента. В результате каждый человек видит свою «картину мира», созданную машиной. Это удобно, но именно здесь возникает риск скрытого влияния на общественное мнение.

Социальные сети — яркий пример алгоритмического воздействия. Платформы вроде Facebook и TikTok используют системы рекомендаций, которые продвигают наиболее «вовлекающий» контент. Алгоритмам важно удержать внимание пользователя как можно дольше, поэтому они чаще показывают эмоциональные, провокационные или конфликтные материалы. Это усиливает поляризацию и формирует эффект информационного пузыря.

Отдельная проблема — микротаргетированная реклама. Системы ИИ позволяют настраивать политические и социальные сообщения под конкретные группы людей с учётом их страхов, ценностей и убеждений. Скандал вокруг Cambridge Analytica показал, как персональные данные могут использоваться для влияния на электоральные процессы. Технология сама по себе нейтральна, но её применение может стать инструментом манипуляции.

Алгоритмы также влияют на повестку через механизмы ранжирования новостей. То, что попадает в топ рекомендаций, воспринимается как более значимое и актуальное. При этом принципы работы алгоритмов зачастую непрозрачны. Пользователь не видит, почему именно эта новость оказалась перед ним, а значит — не может критически оценить источник её появления.

Развитие генеративных моделей усиливает риски. Технологии позволяют создавать убедительные тексты, изображения и видео, которые трудно отличить от реальности. Дезинформация становится масштабируемой и дешёвой. Фейковые аккаунты, автоматические комментарии и «ботофермы» могут искусственно создавать иллюзию массовой поддержки той или иной позиции.

Однако ИИ — это инструмент, а не самостоятельный субъект. Манипулятивным его делают цели и решения людей, которые управляют технологиями. Поэтому ключевыми становятся вопросы регулирования, прозрачности алгоритмов и медиаграмотности общества. Осознанное потребление информации и понимание принципов работы цифровых платформ — лучший способ снизить риск скрытого влияния на общественное мнение.