Новым «помощником» хакеров стал искусственный интеллект.
С помощью искусственного интеллекта мошенники создают аудиосообщения, чтобы вымогать денежные средства у своих жертв, пишет РБК.Схема заключается в следующем: мошенник взламывает аккаунт пользователя в WhatsApp или Telegram, скачивает сохраненные голосовые сообщения, а потом нейросеть на основе полученных сведений создает новые сообщения с нужным контентом.Таким образом, например, рождается просьба одолжить немалую сумму денег.Хакер рассылает голосовые вместе с фото банковских карт получателей, на которых указаны поддельные имена, друзьям и родственникам пользователя, добавили в управлении по организации борьбы с противоправным использованием информационно-коммуникационных технологий МВД России.По словам руководителя направления по анализу безопасности компании «Криптонит» Бориса Степанова, Искусственный интеллект в силах качественно подделать тембр и интонацию голоса человека, поэтому в ближайшем будущем число фишинговых атак, связанных с подделкой голоса, будет только расти.В результате получение доступа к аккаунтам в соцсетях и мессенджерах угрожает любым данным пользователя, которые есть в диалогах, - не только голосовые сообщения, но и те же данные банковских карт.Эксперт направления повышения цифровой грамотности Kaspersky Security Awareness Татьяна Шумайлова пояснила, что человеческий фактор по-прежнему на первом месте, именно от него зависит, будет ли кибератака успешной. Вот почему аферисты постоянно обновляют свои тактики и инструменты.Ранее редакция сообщала, что мошенники участили взломы пользовательских аккаунтов в мессенджерах.
Фото: freepik.com — freepik
Автор статьи: Марина Санькова
Источник статьи: https://infopro54.ru/news/aferisty-ispolzuyut-golosa-rodnyx-i-blizkix-svoix-zhertv-chtoby-vymogat-u-nix-dengi/<