Эксперт и инженер департамента информационной безопасности ИМБА ИТ Андрей Ефимов предупредил россиян о мошенниках, использующих нейросети для создания поддельных голосовых сообщений. Преступники начали применять технологии искусственного интеллекта для создания так называемых «голосовых дипфейков», сообщает издание Ura.ru. По словам Андрея Ефимова, злоумышленники все чаще стали использовать ИИ-технологии в последние месяцы при совершении различных кибератак. Они применяют модели, аналогичные ChatGPT, для разработки поддельных голосовых сообщений. Мошенническая схема выглядит следующим образом: они записывают образец голоса человека, после чего обрабатывают его с помощью искусственного интеллекта. Затем создают фейковый голосовой отрывок, используя образец, который в дальнейшем применяется для обмана большого количества пользователей, знакомых с человеком, чей голос звучит в образце. Выбор искусственного интеллекта для реализации такой работы связан с его способностью генерировать связн
Россиян предупредили о мошенниках, использующих нейросети для создания поддельных голосовых сообщений
20 июля 202320 июл 2023
1
1 мин