Российским властям необходимо заняться тестированием и оценкой систем на базе ИИ для мониторинга и автоматического создания медиаконтента. Такие выводы содержит исследование, которое провели Роскомнадзор, ГРЧЦ, аналитический центр MINDSMITH и "Ростелеком". Эксперты считают, что внедрение этих систем в условиях информационных войн может быть форсированным.
Павел Синяков
© ComNews
25.04.2023
Исследование "Инструменты ИИ в руках злоумышленников — классификация угроз и способы противодействия" основано на анализе 3 тыс. концепций, изобретений и прототипов, так или иначе связанных с внедрением ИИ в процесс производства медиаконтента. Его авторы составили карту технологий с данными о решениях на основе таких субтехнологий, как компьютерное зрение, распознавание и синтез речи, обработка естественного языка, системы прогнозирования и поддержки принятия решений.
"Государству необходимо решить важную инфраструктурную задачу: разработать процедуры тестирования и оценки моделей ИИ. Это позволит держать руку на пульсе развития технологий, отслеживать перспективных разработчиков и проекты. Борьба с дезинформацией — одна из важнейших задач государства. Эффективно бороться с фейками без привлечения технологий на базе ИИ уже невозможно", - отметила пресс-служба Роскомнадзора.
В комментарии ведомства говорится, что "интересам профильных организаций по мониторингу и обеспечению безопасности интернет-среды" соответствуют 12 групп технологий: обнаружение дипфейков, определение контекста происходящего на видео, автоматизация мониторинга контента, его генерация, распознавание лиц, извлечение смысла из текста, поддержка решений при информационных атаках и ряд других.