Часто получаете голосовые сообщения от своих коллег и друзей? А что, если они попросят знакомым вам голосом перевести деньги на их счет? Делать этого, конечно же, не стоит. Кибермошенники с помощью искусственного интеллекта начали создавать подделки голосовых обращений на основе аудиосообщений владельцев аккаунта в популярных мессенджерах и соцсетях. «Это новый способ мошенничества, который является техникой более продвинутой социальной инженерии», — отмечает Ирина Зиновкина, руководитель исследовательской группы Positive Technologies. Однако такая схема пока не получила массового распространения из-за сложности ее реализации. Вот как она устроена: 1️⃣ Сначала киберпреступнику нужно получить доступ к аккаунту пользователя. 2️⃣ После создать аудиосообщение на основе ранее отправленных записей, сгенерировав его с помощью ИИ или склеив из разных кусочков ранее отправленных голосовых сообщений. 3️⃣ Затем мошенник отправляет в личные сообщения потенциальным жертвам фишинговое сообщение, под
Как защититься от мошеннеческих голосовых сообщений
16 января 202416 янв 2024
251
1 мин