Исследователи из Университета Шеффилда разработали систему искусственного интеллекта, которая определяет, какие пользователи социальных сетей потенциально могут распространять дезинформацию.
Команда обнаружила, что пользователи Twitter, которые делятся контентом из ненадежных источников, в основном пишут в Twitter о политике или религии, в то время как те, кто перепечатывает надежные источники, больше пишут о своей личной жизни.
Мы также обнаружили, что корреляция между использованием невежливого языка и распространением ненадежного контента может быть объяснена высокой политической враждебностью в интернете - соавтор исследования доктор Никос Алетрас, преподаватель Университета Шеффилда
Команда сообщила о своих выводах после анализа более 1 миллиона твитов примерно 6200 пользователей Twitter. Они начали со сбора сообщений из списка новостных аккаунтов в Twitter, которые были классифицированы как заслуживающие доверия или ненадежные в четырех категориях: сатира, пропаганда, мистификация и наживка.
Затем исследователи использовали публичный API Twitter, чтобы получить самые последние 3200 твитов для каждого источника, и отфильтровали все ретвиты, чтобы оставить только оригинальные сообщения.После они удалили сатирические сайты, такие как The Onion, которые имеют скорее юмористические, чем обманчивые цели, чтобы составить список из 251 заслуживающего доверия источника, такого как BBC и Reuters, и 159 ненадежных источников, которые включали Infowars и Disclose.tv. После этого они разделили примерно 6200 пользователей Twitter на две отдельные группы: тех, кто делился ненадежными источниками по крайней мере три раза, и тех, кто только когда-либо перепостил истории с надежных сайтов.
Наконец, исследователи использовали лингвистическую информацию в твитах для обучения серии моделей, чтобы предсказать, будет ли пользователь распространять дезинформацию. Их самый эффективный метод использовал нейронную модель под названием T-BERT. Команда говорит, что он может предсказать с точностью 79,7%, будет ли пользователь репостить ненадежные источники в будущем.
Это показывает, что нейронные модели могут автоматически выявлять (нелинейные) связи между генерируемым пользователем текстовым контентом (т. е. использованием языка) в данных и распространенностью ретвитов этого пользователя из надежных или ненадежных источников новостей в будущем.
Исследователи надеются, что их результаты помогут гигантам социальных сетей бороться с дезинформацией.
Изучение и анализ поведения пользователей, делящихся контентом из ненадежных источников новостей, может помочь платформам социальных сетей предотвратить распространение фальшивых новостей на уровне пользователей, дополняя существующие методы проверки фактов, которые работают на уровне сообщений или источников новостей - соавтор исследования Йида Му, аспирант Университета Шеффилда.