Найти тему
OVERCLOCKERS.RU

Мошенники начали использовать ИИ и нейросети для создания голосовых сообщений-дипфейков

Как сообщает издание Forbes, мошенники все активнее используют технологии искусственного интеллекта и нейросетей для создания поддельных голосовых сообщений – так называемых дипфейков. Например, позвонив владельцу учетной записи в ряде соцсетей и мессенджеров, поговорив с ним и получив запись голоса, злоумышленники могут создать виртуальный слепок этого голоса и при помощи нейросетей генерировать произвольные фразы. Сходство, разумеется, получается не стопроцентным, но небольшие несоответствия люди могут списывать на, например, неидеальные условия связи.

Созданные при помощи нейросетей сообщения преступники используют для того, чтобы выпрашивать денежные средства у родственников и знакомых жертвы. Пока такая схема применяется не массово, но эксперты полагают, что более высокая, чем у многих других вариантов «конверсия» будет мотивировать мошенников использовать ее чаще. Здесь можно вспомнить распространенную схему мошенничества, при которой пенсионеру звонит якобы его сын или внук, говоря, что попал в ДТП и прося денег для «решения вопроса». Голосовые дипфейк-сообщения позволят преступникам обманывать граждан гораздо более убедительно. Специалисты по информационной безопасности рекомендуют при получении подозрительных сообщений или звонков самостоятельно перезванивать своим родственникам или знакомым, потому что номер при входящем вызове может быть подделан. Теперь может быть подделан и голос человека, персональные же данные можно добыть из множества утекших в интернет баз данных – за это стоит сказать спасибо компаниям, безответственно относящихся к их хранению.

📃 Читайте далее на сайте

С подпиской рекламы не будет

Подключите Дзен Про за 159 ₽ в месяц