Сегодня ИИ всё чаще используют для анализа инфополя, мониторинга репутации, общественных настроений, рисков, кризисов. Руководителю показывают дашборд, графики, “фреймы”, “нарративы”, выводы. Возникает ощущение, что ситуация под контролем. Но есть проблема, ИИ в таких задачах часто не измеряет реальность, а интерпретирует её с ошибками, которые сложно заметить без специальных процедур. Недавно вышло научное исследование, в котором учёные проанализировали, как ИИ выявляет фреймы в текстах на разных языках за период почти 8 лет. Они взяли тысячи материалов на русском, французском, испанском и итальянском языках и сравнили два самых популярных подхода автоматического анализа. Фрейм — это не ложь и не факт. Это рамка интерпретации, т.е. на что обращают внимание, что считают главным, а что второстепенным.
Один и тот же факт можно подать как: Фреймы напрямую влияют на то, как люди и организации принимают решения. Выводы оказались неудобными, но очень важными: Проще говоря, красивый ИИ-дашбо