В мессенджере жертве могут выслать дипфейк, скомпилированный с помощью искусственного интеллекта - запись “голоса родственника”, который просит о помощи, определенные фото/видео для достоверности.ПРАЙМ
“Голос могут записать и использовать в дальнейшем даже для подтверждения банковских операций”, — предупредил Закарян.РИА Новости