10,6 тыс подписчиков
Системы с ИИ могут интегрировать в соцсети для проверки фактов
МОСКВА, 24 апреля. /ТАСС/. Системы на базе искусственного интеллекта (ИИ) в перспективе от трех до пяти лет будут интегрированы в социальные сети для проверки фактов в реальном времени. К такому выводу пришли специалисты Роскомнадзора и Главного радиочастотного центра в исследовании, проведенном совместно с аналитическим центром Mindsmith и компанией "Ростелеком".
"Системы приближаются к проверке фактов в реальном времени и будут интегрированы в соцсети. В будущем они смогут анализировать речь и потоковое видео, проверять их, а при обнаружении ложных новостей поднимать тревогу или оповещать пользователей о недостоверном контенте. Такие системы будут включать в себя комплекс работающих в симбиозе нейросетей и внедряться в соцсети", - говорится в результатах исследования "Инструменты ИИ в руках злоумышленников - классификация угроз и способы противодействия", которое находится в распоряжении ТАСС.
Сегодня системы для проверки достоверности информации находятся на раннем этапе развития и будут массово внедрены только через 3-5 лет, отмечают специалисты. "Интерес к автоматизации проверки фактов значительно поднялся во времена пандемии коронавируса, и с тех пор направление стало активно развиваться. Тем не менее даже экспериментальные решения не покрывают все этапы процесса, не включают в себя все форматы контента и не всегда являются правильно обученными", - сообщается в документе.
Впоследствии внедрение автоматизированной проверки фактов приведет к тому, что каждая новость будет размечена специальными тегами на крупных платформах. При этом высока вероятность, что корпорации будут некорректно размечать новости, чтобы сформировать выгодную оптику в отношении инфоповодов, считают эксперты.
В целом государственное регулирование в большинстве стран не успевает за скоростью развития ИИ-технологий, говорится в выводах исследования. Однако из-за автоматизации информационных войн и развития генеративных моделей в будущем будет проблематично обеспечить когнитивную безопасность населения без внедрения искусственного интеллекта. "Наличие отечественных моделей и их внедрение, а также использование отечественных наборов данных - вопрос национальной безопасности, так как зарубежные акторы способны экспортировать ИИ, который будет подконтролен только им", - считают аналитики.
Еще один вывод исследования - государству необходимо разработать процедуры тестирования и оценки моделей ИИ. Это позволит отслеживать развитие технологий, а также выявлять перспективных разработчиков и проекты.
Фото:© Сергей Мальгавко/ ТАСС
2 минуты
24 апреля 2023