Мошенники стали чаще применять технологию дипфейк – видео, созданное с помощью искусственного интеллекта, которое может быть использовано для подмены личности. Об этом предупредили в Банке России. «С помощью нейросетей мошенники создают реалистичное видеоизображение человека. Затем сгенерированный образ рассылают его друзьям или родным через мессенджеры или социальные сети. В коротком фальшивом видеоролике виртуальный клон реального человека рассказывает якобы о своей проблеме (болезнь, ДТП, увольнение) и просит перевести деньги на определенный счет», – говорится в сообщении. Бывают и случаи, когда мошенники создают дипфейки работодателей, сотрудников госорганов или известных личностей из той сферы деятельности, в которой работает их жертва. Для создания дипфейка злоумышленники используют фото, видео и записи голоса. По данным регулятора, мошенники получают их через взлом чужого аккаунта в социальных сетях или мессенджерах. ЦБ предлагает в качестве защиты несколько вариантов: позвонить
ЦБ предупредил об участившихся случаях использования дипфейков мошенниками
15 августа 202415 авг 2024
4
1 мин