Алгоритм рекомендаций политического контента в YouTube для пользователей США склоняется к «левым» политическим взглядам, выяснили исследователи из Нью-Йоркского универитета в Абу-Даби. Исследование опубликовано в журнале PNAS Nexus.
Учёные создали шесть онлайн-персон, снабдив каждую политическими взглядами. В статье они обозначены как «крайне левый, левый, центрист, анти-прогрессист (Anti-Woke), правый, крайне правый». Затем исследователи, используя эту классификацию, фиксировали, какие рекомендации получала каждая из персон.
Они пришли к выводу, что алгоритм в целом настроен так, чтобы склонять пользователей с радикальными убеждениями — «правыми» или «левыми» — в сторону более умеренных, «центристских» взглядов. В этом процессе, однако, присутствует заметный «левый уклон», несмотря на то, что «крайне правые сообщества на YouTube больше, чем крайне левые».
На практике это значит, что алгоритм легко выдавал пользователю, заинтересовавшемуся «левым» контентом, видео из соответствующего политического сегмента. В обратную же сторону это работало гораздо хуже или не работало вовсе. Так, чтобы «правому» зрителю начать получать «левые» рекомендации, ему достаточно посмотреть один подобный ролик, в то время как «левый» зритель не получит «правых» рекомендаций, сколько бы видео подобного толка он ни посмотрел.
Исследование также установило, что зрителю, не имеющему явных политических взглядов, алгоритм предложит скорее «левый» контент. Кроме того, удалось выяснить, что YouTube чаще предлагает пользователям «левых» взглядов комедийный контент, а политические видео в рекомендациях чаще видят центристы и «правые».
Ранее в этом году стало известно, что разработчики СhatGPT отучали языковую модель от «проявлений ксенофобии», а в Китае правительство потребовало от всех создателей генеративного ИИ обеспечить, чтобы их продукт «соответствовал идеям социализма».
#лихая_долина