Подделка голоса и дипфейки угрожают россиянам Злоумышленники активно используют технологии подделки голоса для обмана граждан и кражи денежных средств, предупреждает руководитель Центра цифровой экспертизы Роскачества Сергей Кузьменко. По словам эксперта, современные нейросети на базе искусственного интеллекта позволяют создавать крайне реалистичные голосовые копии знакомых или родственников потенциальных жертв. Мошенникам достаточно небольшого образца голоса, который можно легко получить из открытых источников – аудио- и видеозаписей в социальных сетях, мессенджерах или даже просто записав телефонный разговор. Услышав знакомый голос, люди теряют бдительность и без колебаний переводят деньги на указанные счета, понимая, что стали жертвой обмана, лишь потом. Кузьменко отмечает, что развитие этой схемы привело к появлению видеозвонков с использованием технологии дипфейк, что выводит обман на совершенно новый уровень. «Если при обычном телефонном звонке еще есть возможность заподозрить