Утро началось как обычно. Марина пила кофе, собиралась на работу. Вдруг зазвонил телефон. Она подняла трубку и услышала голос сына: “Мама, я попал в аварию. Меня забирают в полицию. Нужно 100 тысяч, чтобы всё уладить. Пожалуйста, помоги!” Марина не успела сказать и слова, как звонок прервался. В душе моментально поселилась тревога. Женщина была в панике: не знала, куда бежать и как помочь сыну. А тут и звонок от “заботливого” следователя, который предлагает перевсти нужную сумму и решить проблему. Но не торопись выполнять его требования! Для начала прочитайте эту статью. Мошенники больше не ограничиваются банальными фразами вроде “Ваш сын в беде, переведите деньги”. Теперь они используют технологии искусственного интеллекта, чтобы создать голосовые дипфейки - точные копии голосов реальных людей. Для этого им достаточно всего 15-20 секунд записи голоса жертвы. Эту запись можно добыть из мессенджеров, социальных сетей или даже телефонного разговора. Нейросеть анализирует голос, его инт
Старая схема с новым подходом: "Мама, помоги!"
13 марта13 мар
4
2 мин