Добавить в корзинуПозвонить
Найти в Дзене
TrueVision

Опасноть ИИ. Мошенники записывают голоса через «опросы» и делают дипфейки

Мошенники звонят под видом социологических исследований и просят ответить на несколько вопросов. Им нужно всего 20 секунд вашей речи, чтобы создать дипфейк и говорить вашим голосом. «Здравствуйте, мы проводим короткий опрос для социологического исследования…» — так теперь начинается не просто скучный звонок, а ловушка для создания голосового дипфейка. Мошенникам больше не нужны сложные сценарии. Им нужно всего 15–20 секунд вашей речи — с разной интонацией, без фоновых шумов и перебивок.
Дальше — дело технологий: нейросеть анализирует голос, тембр, дыхание и «собирает» цифровую копию. С помощью этой копии злоумышленники могут: Новый тренд — социальная инженерия под видом исследований: — Здравствуйте, подскажите, как вы оцениваете качество медицины в вашем регионе?
— Сколько раз в неделю вы пользуетесь онлайн-платежами?
— Ваш голос будет записан для контроля качества! На деле этот «контроль качества» превращается в базу данных для генерации голосов.
Достаточно, чтобы вы сказали пару пред
Оглавление

Мошенники звонят под видом социологических исследований и просят ответить на несколько вопросов. Им нужно всего 20 секунд вашей речи, чтобы создать дипфейк и говорить вашим голосом.

«Здравствуйте, мы проводим короткий опрос для социологического исследования…» — так теперь начинается не просто скучный звонок, а ловушка для создания голосового дипфейка.

Как это работает

Мошенникам больше не нужны сложные сценарии. Им нужно всего 15–20 секунд вашей речи — с разной интонацией, без фоновых шумов и перебивок.
Дальше — дело технологий: нейросеть анализирует голос, тембр, дыхание и «собирает» цифровую копию.

С помощью этой копии злоумышленники могут:

  • звонить вашим близким и имитировать ваш голос;
  • просить перевести деньги «на срочную помощь»;
  • обходить голосовую аутентификацию в банках или сервисах;
  • создавать фейковые аудио и видео с вашим участием.

«Просто опрос» — уже не безобидно

Новый тренд — социальная инженерия под видом исследований:

— Здравствуйте, подскажите, как вы оцениваете качество медицины в вашем регионе?
— Сколько раз в неделю вы пользуетесь онлайн-платежами?
— Ваш голос будет записан для контроля качества!

На деле этот «контроль качества» превращается в базу данных для генерации голосов.
Достаточно, чтобы вы сказали пару предложений эмоционально — и искусственный интеллект уже умеет «говорить» как вы.

Почему это опасно

Если раньше подделывали фото, то теперь подделывают интонации, эмоции, даже паузы.
В США и Европе уже зафиксированы десятки случаев, когда родителям звонили «дети» — плачущие, напуганные, просящие выкуп.
Запись длиной 20 секунд стала оружием.

Как защититься

  1. Не проходите «опросы» по телефону, особенно от неизвестных компаний.
  2. Не произносите своё имя и фамилию на записи.
  3. Не говорите длинные фразы — ограничьтесь «без комментариев».
  4. Если вам звонит «родственник» и просит деньги — перезвоните сами.
  5. Используйте сервисы распознавания дипфейков и защиты цифровой идентичности.

Мир, где даже голос нужно охранять

Раньше нас учили не передавать паспортные данные.
Теперь — нужно
не отдавать свой голос.
Мошенничество стало скрытнее, технологичнее и намного убедительнее.

#мошенничество #дипфейк #искусственныйинтеллект #безопасностьвсети #цифроваяидентичность #голосовойдипфейк #технологии #AI #соцсети #интернетбезопасность #мошенники #новыемошенники #цифроваягигиена #кибербезопасность #личныеданные