Мошенники уже активно применяют технологию подделки голоса для кражи денег россиян, предупредил в беседе с RT Сергей Кузьменко, руководитель Центра цифровой экспертизы Роскачества. «Используя нейросети на базе искусственного интеллекта, злоумышленники создают убедительные голосовые копии знакомых или родственников потенциальных жертв. Для этого им требуется лишь короткий образец голоса, который легко добыть из аудио- и видеозаписей в соцсетях, мессенджерах или просто записав разговор по телефону. Услышав в трубке знакомый тембр и манеру речи, люди теряют бдительность и без лишних сомнений переводят деньги на указанные мошенниками реквизиты, осознавая обман лишь после», — добавил эксперт. По его словам, эволюцией этой схемы становятся видеозвонки с использованием технологии дипфейк, которые выводят обман на новый уровень. «Если при голосовом звонке у вас ещё есть шанс заподозрить неладное: положить трубку и перезвонить на настоящий номер, написать в мессенджер для подтверждения, то с ди
Это я, не узнал? Мошенники активно применяют технологию подделки голоса: что делать?
27 октября 202527 окт 2025
396
1 мин