Злоумышленники все чаще используют технологии искусственного интеллекта для генерации реалистичных изображений и видео, известных как дипфейки. Банк России предупреждает, что аферисты могут использовать фото, видео, а также аудиозаписи, доступ к которым открывается после взлома ими аккаунтов в соцсетях и мессенджерах. Сгенерировав образ человека, мошенники отправляют его виртуальную копию его же знакомым, друзьям или родственникам. В небольшом ролике или аудиосообщении созданная с помощью ИИ "копия" рассказывает о какой-либо проблеме (например, о внезапной болезни, случившемся дорожно-транспортном происшествии или увольнении). Затем "аватар" человека просит перевести сумму денег (она может быть и небольшой) на какой-то конкретный счет. А в отдельных случаях злоумышленники создают дипфейки работодателей или, например, известных людей, работающих в той же сфере, что и их жертва. Ранее использование дипфейков было слишком дорогостоящим занятием, и такие случаи были редкими. Один из первых
У вас одно новое сообщение: как распознать дипфейк и не попасться на уловки мошенников
21 августа 202421 авг 2024
6
3 мин