Маркировка контента, созданного искусственным интеллектом, которую регуляторы по всему миру продвигают как главный инструмент борьбы с дезинформацией, не оправдывает возложенных надежд и может приводить к непредвиденным последствиям. К такому выводу пришли ученые из Национальных институтов здоровья США, опубликовавшие масштабное исследование в журнале PNAS Nexus. Эксперимент с участием более 1600 американцев показал: даже когда пользователи точно знают, что сообщение сгенерировано нейросетью, это никак не влияет на их готовность менять мнение под воздействием этого контента. Сдвиг в убеждениях составил в среднем 9,74 процентного пункта как в группе с маркировкой, так и без нее, при том что 92% участников полностью доверяли указанным пометкам об авторстве. Данные американских коллег перекликаются с результатами опроса, проведенного в России компанией Online Market Intelligence в январе 2026 года. Выяснилось, что более половины россиян (52%) уверены: обязательная маркировка не защитит их
«Обратный эффект: ученые доказали, что маркировка ИИ не спасает от фейков, а только путает людей и подрывает доверие ко всему»
13 марта13 мар
2 мин