— Мадам, а не хотите кофе? —
сказал он, глядя ей в глаза.
Три таракана были против,
пять — за.
Юрий Кутюм
В заголовке 1й пункт звучащего приговором резюме цикла новых исследований.
2й и 3й пункт этого резюме подстать:
2) Фейковая инфореальность имеет высокие шансы стать доминирующей уже в ближайшее десятилетие, что будет иметь радикальные последствия для политики, культуры и образования.
3) Ключевой и пока что непреодолимой силой, толкающей мир в новые темные времена, является своеобразная цепная реакция, в основе которой:
✔️ многочисленные “тараканы” в наших головах — наличие у большинства из нас разнообразных когнитивных искажений и предубеждений на подсознательном уровне ,
✔️ многократный рост размеров этих «тараканов» в результате «облучения сетевой заразой» — искусственно порождаемыми вирусными мемами.
Контент сомнительной точности — в простонародье фейковые новости — вовсе не новое изобретение. Он существует с момента возникновения свободной прессы.
Однако, буквально в последние годы наблюдаются 3 качественных изменения:
— социальные медиа становятся основным источником новостей;
— фейковые новости стали разнообразиться по форме: от теории заговора, кликбейта и псевдонаучки до гиперпартийного контента, сфабрикованных отчетов о фейк-ньюс и технологической вершины — «глубоких фейков»;
— и самое страшное, — фейковые новости стали порождать вирусные мемы, превращающие фейк-ньюс в самый влиятельный вид контента в социальных медиа.
Поэтому, если мы хотим выжить в этой кислотной инфосреде и при этом не выжить из ума, погрузившись в фейковую инфореальность, нам необходимо:
✔️ знать и понимать механику, порождающую фейковую инфореальность;
✔️ найти и освоить инструментарий для борьбы с этой механикой, — типа осинового кола или серебряных пуль для изведения вампиров.
Механика порождения фейковой инфореальности
Чтобы узнать и понять механику, необходимо, как минимум прочесть только что опубликованный меморандум Misinformation and biases infect social media, both intentionally and accidentally основателя проекта «Обсерватория социальных медиа» (OSoMe) профессора Филиппо Менцера и его коллеги по обсерватории Джованни Лука Чампалья.
Если предельно коротко.
Умышленная деза для порождения вирусных мемов (а это цель дезы), использует «тараканов» в наших головах, коими, как вы уже поняли, я для краткости называю искажения и предубеждения различной этиологии.
Таких этиологий три: когнитивная, социальная и алгоритмическая.
Про когнитивные искажения и предубеждения все так или иначе слышали, и особенно объяснять не надо. Но фишка в том, что созданы новые технологии (например, социальные боты, астротурфинг и т.д.) превращающие дезу в вирусные мемы, целенаправленно используя наиболее распространенные когнитивные искажения и предубеждения.
Социальные искажения и предубеждения — это своеобразное «эхо», возникающее в любой замкнутой изолированной инфосреде (коими являются большинство социальных медиа). Разработана технология усиления этого «эха», позволяющая не только злонамеренные «вопли» соцботов, но и непреднамеренные «возгласы» разшаривающих дезу участников фокусировать, подобно лучу гиперболоида инженера Гарина, во всепрожигающие по своей энергетике вирусные мемы.
Что особенно важно:
— именно этому классу искажений и предубеждений мы обязаны лавинообразному росту раскола и поляризации всевозможных «нас против них»;
— не разгородив ограды социальных резерваций или хотя бы не наделав между ними мостов, с нарастающим расколом не сладить.
Алгоритмическая этиология искажений и предубеждений коренится в сетевых алгоритмах персонализации, определяющих, что видят конкретные люди, находясь в сети.
Это и рекламные инструменты, встроенные во многие платформы соцсетей, и алгоритмы выявления популярности контента, «репутации» конкретных пользователей, рекомендаций и многое другое (классы и виды персонализации растут как грибы).
Все эти алгоритмы порождают особые типы искажений и предубеждений (гомогенности, популярности и т.д.), жутко усиливающих уже имеющиеся когнитивные искажения и предубеждения людей.
Однако самое неприятное в том, что практически все алгоритмические искажения могут управляться ботами. И если бот создан со злонамеренными целями (например, влияние на выборы), то он запросто может таким управлением усиливать действенность дезы, порождать астротурфинг и многое другое.
Инструментарий для борьбы с фейковой инфореальностью
Такой инструментарий создается в рамках проекта «Обсерватория социальных медиа» (OSoMe), направленного на изучение распространения информации в сети и дискриминирование механизмов, которые способствуют распространению мемов в социальных сетях.
Проект носит междисциплинарный характер, объединяя усилия компьютерщиков, физиков, журналистов, политологов, социологов, а также нейро-ученых (для выявления связей между структурами распространения информации в социальных сетях и мозге).
В основе подхода OSoMe поиск корреляций между онлайн и оффлайн событиями в ходе анализа тенденции в Интернете с помощью визуализации временных, географических и сетевых моделей распространения мемов и всплесков вирусной активности.
Супер-цель проекта — понять, как можно злоупотреблять социальными медиа, чтобы манипулировать общественным мнением, проникать в политический дискурс, манипулировать фондовым рынком, красть личную информацию и распространять дезу.
Разработанные проектом OSoMe инструменты построены на агентском моделировании, теории диффузии мемов и прогнозировании, какие мемы будут вирусными.
Базовый инструмент — инфраструктура обнаружения социальных ботов с публичным API, называемая Botometer (ранее BotOrNot) — см. мои посты с тегом #Соцботы. Ботометр используется, в частности военными и разведкой США.
Для тренировки по выявлению фейков разработана бесплатная мобильная новостная игра Fakey. Можете проверить себя, насколько вы фейки сечете.
Для поиска уязвимостей при дезинформации создан инструмент Hoaxy, отслеживающий и визуализирующий распространение дезы и ее конкуренцию с фактчекингом.
Другие инструменты см. здесь
Ну а теперь самое главное
Исследования проекта OSoMe показывают.
Чисто технологическими методами наступающую тьму фейковой инфореальности не остановить.
Решение этого мега-челенжа должно учитывать когнитивные и социальные аспекты проблемы (подробней см. Beyond Misinformation: Understanding and Coping with the “Post-Truth” Era).
Иначе человечество, как уже было, забудет плоды просвещения и снова погрузится в темноту. На сей раз, в темноту тотальной лжи, для которой уже придумали лживый мем — “пост-правда”.
_________________________
Хотите читать подобные публикации? Подписывайтесь на мой канал в Телеграме, Medium, Яндекс-Дзене
Считаете, что это стоит прочесть и другим? Дайте им об этом знать, кликнув на иконку “понравилось”