Найти в Дзене
Киберновости

ИИ-боты отражают токсичные привычки социальных сетей без алгоритмов

Цифровое зеркало: как 500 ИИ-ботов воспроизвели всю токсичность человеческого общения.
В тиши лаборатории Амстердамского университета родился маленький цифровой мир. Пятьсот искусственных собеседников — каждый со своим характером, взглядами и предрассудками — получили возможность общаться друг с другом в упрощенной социальной сети. Никаких алгоритмов, никаких рекламных уловок. Просто чистый эксперимент: что происходит, когда ИИ остается наедине с самим собой?
Результат оказался пугающе знакомым. Цифровая племенная война!
Доктор Петтер Тёрнберг и инженер-исследователь Майк Ларой создали каждого бота по образу и подобию реальных людей, взяв за основу данные национальных избирательных исследований. У цифровых персонажей были свои политические взгляды, демографические характеристики и жизненный опыт.
И что же случилось? Боты мгновенно начали воспроизводить самые токсичные паттерны человеческого поведения в соцсетях.
За пять экспериментов, каждый из которых включал 10 000 действий, иск
ИИ-боты отражают токсичные привычки социальных сетей без алгоритмов
ИИ-боты отражают токсичные привычки социальных сетей без алгоритмов

Цифровое зеркало: как 500 ИИ-ботов воспроизвели всю токсичность человеческого общения.

В тиши лаборатории Амстердамского университета родился маленький цифровой мир. Пятьсот искусственных собеседников — каждый со своим характером, взглядами и предрассудками — получили возможность общаться друг с другом в упрощенной социальной сети. Никаких алгоритмов, никаких рекламных уловок. Просто чистый эксперимент: что происходит, когда ИИ остается наедине с самим собой?

Результат оказался пугающе знакомым. Цифровая племенная война!

Доктор Петтер Тёрнберг и инженер-исследователь Майк Ларой создали каждого бота по образу и подобию реальных людей, взяв за основу данные национальных избирательных исследований. У цифровых персонажей были свои политические взгляды, демографические характеристики и жизненный опыт.

И что же случилось? Боты мгновенно начали воспроизводить самые токсичные паттерны человеческого поведения в соцсетях.

За пять экспериментов, каждый из которых включал 10 000 действий, искусственные агенты естественным образом сбились в идеологически однородные стаи. Индекс E-I показал —0,84, что означает: боты предпочитали общаться исключительно с единомышленниками. Никто их к этому не принуждал — они сами выбрали путь эхо-камер и информационных пузырей.

Крики громче шепота.

Но самое тревожное открытие ждало впереди. Те боты, кто придерживался радикальных взглядов — притягивали к себе больше внимания. Их подписывали чаще, их посты репостили активнее.

Исследователи назвали это эффектом "призмы социальных медиа" — поляризованный контент получает непропорциональную видимость, как будто весь цифровой мир настроен усиливать именно крайности.

Знакомо? Именно так работают настоящие социальные сети, где самые эмоциональные и провокационные посты разлетаются со скоростью лесного пожара.

Цифровая олигархия.

Неравенство в цифровом мире ботов оказалось жестче реального. Топ-10% пользователей захватили 75-80% всех подписчиков. А когда дело дошло до репостов, картина стала еще мрачнее: 10% постов получили 90% всего внимания, остальные остались в тени.

Коэффициент Джини для репостов достиг 0,94 — показатель, который экономисты называют "крайней концентрацией". Для сравнения: в некоторых беднейших странах мира неравенство доходов меньше.

Попытки исправить неисправимое.

Ученые попробовали шесть способов "лечения" цифрового токсикоза. Хронологические ленты вместо алгоритмической подачи. Скрытие количества подписчиков. Продвижение эмпатичного контента. Каждое решение внедряли в идеальном виде — так, как мечтают активисты реформы соцсетей.

Результат? Ни одна мера не сработала полностью. Улучшения в одной области оборачивались ухудшениями в другой. Когда убрали профили пользователей, экстремистский контент стал выделяться еще сильнее. Хронологические ленты уменьшили неравенство, но усилили связь между радикальностью и влиянием.

Архитектура порока.

"Наши выводы бросают вызов распространённому мнению о том, что дисфункции социальных медиа являются в первую очередь результатом алгоритмической курации", — делают вывод авторы исследования.

Проблема глубже. Сама возможность подписываться, делиться контентом и реагировать на эмоциональном уровне может по своей природе порождать поляризацию. Это как архитектурный дефект здания — неважно, как ты расставишь мебель, стены всё равно будут трещать.

Зеркало человеческой природы.

Исследование стало одним из первых примеров "генеративной социальной симуляции" — нового научного инструмента, который объединяет большие языковые модели с моделированием поведения агентов.

И вот что пугает больше всего: боты научились токсичности у нас. Их обучали на данных, созданных людьми. Они просто воспроизвели то, чему мы их невольно научили — наши предрассудки, нашу склонность к конфликтам, нашу любовь к скандалам.

Цифровые агенты стали идеальным зеркалом человеческой природы. И отражение оказалось не слишком лестным.

Возможно, проблема не в алгоритмах Facebook или Twitter. Возможно, проблема в нас самих — и в том, как мы взаимодействуем, когда думаем, что никто не смотрит.