Вы когда-нибудь ловили себя на мысли, что уже не понимаете, где правда, а где вымысел? Что новости противоречат друг другу, «факты» меняются с завидной частотой, а комментарии под постами выглядят так, будто их писал один и тот же человек? Если да, то нет сомнений: вы живете в эпоху постправды.
Термин «постправда» (post-truth) был признан словом 2016 года по версии Оксфордского словаря. Определение звучит красиво и пугающе одновременно:
постправда - обстоятельства, при которых объективные факты являются менее значимыми при формировании общественного мнения, чем апелляция к эмоциям и личным убеждениям.
Простыми словами: нам стало все равно, что правда, а что нет. Главное, чтобы это вызывало эмоции и совпадало с нашим мнением. Как мы к этому пришли? И почему проблема стала особенно острой именно сейчас? Давайте разбираться!
Как интернет убил «привратников»
Раньше информация проходила через фильтры. В газетах работали редакторы и фактчекеры, в материал, который демонстрировался в телевизоре, тщательно проверяли выпускающие редакторы. Конечно, это не гарантировало стопроцентную объективность, но, по крайней мере, создавало барьер для откровенной лжи.
С появлением социальных сетей и новых медиа эти фильтры исчезли. Любой человек может выложить любой текст без проверки. Малозначимая новость может улететь в топ, а важный репортаж остаться незамеченным. Как отмечают исследователи, сегодня «манипулятивная» новость распространяется в шесть раз быстрее, чем правдивая. Эмоции продаются лучше фактов!
П. Померанцев описывает новую реальность так: «в новом мире - мире постправды можно говорить абсолютно все. Вместо глушилок - информационный шум. Раньше было понятно: то, что глушат - запретно, запретное - это правда. Сегодня же шквал фактов, постфактов и мнений стоит такой, что простой обыватель не может отличить важную информацию от мусора, правду от вымысла».
Искусственный интеллект: фабрика фейков
Если раньше для создания фейка нужно было потратить часы, то теперь – минуты. В начале 2024 года эксперты зафиксировали пугающую цифру: развитие технологий искусственного интеллекта спровоцировало 1 000-процентный рост количества фейков в интернете.
Глава OpenAI (компании, создавшей ChatGPT) признался, что перестал различать посты, написанные ботами и реальными людьми, назвав это «странным опытом». Создатель технологии сам не может отличить ее продукт от произведенного человеком. Что тогда говорить об обычных пользователях?
А в конце 2024 года стало известно, что компании планируют внедрять в социальные сети полноценные AI-профили. У них будут биографии, фотографии, они смогут публиковать контент и взаимодействовать с реальными пользователями. Сотни тысяч таких аккаунтов уже существуют сегодня.
Синтетический консенсус: иллюзия, что «все так говорят»
Одна из самых коварных уловок постправды – это создание искусственного мнения. Когда вы видите сотни одинаковых комментариев под постом, у вас возникает ощущение: «все так думают». Но что, если эти комментарии оставили не люди, а боты или AI-аккаунты?
Это называется «синтетический консенсус». Пользователь попадает в ловушку социального доказательства, не подозревая, что за видимостью массовой поддержки стоят алгоритмы. И в этом главная опасность: мы перестаем понимать, где реальное общественное мнение, а где – искусственно созданная иллюзия.
В апреле 2024 года компания "Microsoft" опубликовала отчет, из которого следовало, что представители недружественных государств могут использовать ИИ для вмешательства в выборы в США. Технологии генерации текстов и дипфейков превратились в оружие в информационной войне между государствами.
Технологическая цензура: когда алгоритм решает за нас
Парадокс постправды в том, что те же самые технологии, которые создают фейки, используются и для борьбы с ними. В марте 2023 года Илон Маск анонсировал, что социальные сети начнут использовать ИИ для обнаружения манипулятивных постов. Звучит хорошо, но есть проблема: сам Маск признал, что текущие алгоритмы слишком сложны и не до конца понятен даже штатным сотрудникам его компании.
Кто объяснит пользователю, почему его пост удалили или заблокировали? Кто несет ответственность за ошибки алгоритма? Действия программ непрозрачны, возможность апелляции у пользователей отсутствует. Это новый вид цензуры - технологическая.
Что делать?
Ответ банальный, но единственно верный: развивать критическое мышление. Как советуют эксперты «Лаборатории Касперского», основное правило защиты - критически относиться к любой информации в сети и повышать цифровую грамотность.
Однако в мире, где создатели ИИ перестают отличать свои творения от человеческих, этого недостаточно. Нужно требовать от платформ прозрачности алгоритмов, поддержки независимой журналистики и, главное, учиться заново задавать простой вопрос: откуда эта информация? Кто ее автор? Какая у него цель?
Постправда - это не приговор. Это вызов. И ответ на него зависит от каждого из нас.
Автор: Арина Костина, студентка 1 курса Высшей школы медиакоммуникаций и связей с общественностью Санкт-Петербургского политехнического университета Петра Великого