Как сообщает издание Forbes, мошенники все активнее используют технологии искусственного интеллекта и нейросетей для создания поддельных голосовых сообщений – так называемых дипфейков. Например, позвонив владельцу учетной записи в ряде соцсетей и мессенджеров, поговорив с ним и получив запись голоса, злоумышленники могут создать виртуальный слепок этого голоса и при помощи нейросетей генерировать произвольные фразы. Сходство, разумеется, получается не стопроцентным, но небольшие несоответствия люди могут списывать на, например, неидеальные условия связи. Созданные при помощи нейросетей сообщения преступники используют для того, чтобы выпрашивать денежные средства у родственников и знакомых жертвы. Пока такая схема применяется не массово, но эксперты полагают, что более высокая, чем у многих других вариантов «конверсия» будет мотивировать мошенников использовать ее чаще. Здесь можно вспомнить распространенную схему мошенничества, при которой пенсионеру звонит якобы его сын или внук, гов
Мошенники начали использовать ИИ и нейросети для создания голосовых сообщений-дипфейков
10 января 202410 янв 2024
9
1 мин