Найти в Дзене
Пульс ИИ

Не говорите «да»! ИИ научился воровать голоса и оформлять кредиты на людей

Сегодня технологии дошли до точки, когда ваш голос — больше не уникален, не защищён и не принадлежит только вам. Его можно украсть, клонировать и использовать против вас. И делают это не какие-то тайные спецслужбы, а обыкновенные мошенники, вооружённые нейросетями. Ещё пару лет назад синтез речи звучал топорно: роботизированный, без интонаций, с паузами невпопад. Но с развитием ИИ всё изменилось. Сейчас, чтобы скопировать голос человека, достаточно 10–30 секунд записи — например, из голосового сообщения, сторис, интервью, из видео на YouTube. Нейросети типа ElevenLabs, iSpeech, Resemble.ai уже умеют воспроизводить голос с интонациями, эмоциями, особенностями дыхания и прочим. Технология настолько продвинулась, что фраза «это он/она, я по голосу узнаю» больше не работает. Потому что это может быть не он. Не она. Даже не вы. Мошенникам открылись новые горизонты. Раньше нужно было взламывать базы данных, перехватывать SMS, подделывать паспорта. Теперь всё проще — достаточно украсть голо
Оглавление

Сегодня технологии дошли до точки, когда ваш голос — больше не уникален, не защищён и не принадлежит только вам. Его можно украсть, клонировать и использовать против вас. И делают это не какие-то тайные спецслужбы, а обыкновенные мошенники, вооружённые нейросетями.

Ваш голос в опасности: что умеют нейросети

Ещё пару лет назад синтез речи звучал топорно: роботизированный, без интонаций, с паузами невпопад. Но с развитием ИИ всё изменилось. Сейчас, чтобы скопировать голос человека, достаточно 10–30 секунд записи — например, из голосового сообщения, сторис, интервью, из видео на YouTube.

Нейросети типа ElevenLabs, iSpeech, Resemble.ai уже умеют воспроизводить голос с интонациями, эмоциями, особенностями дыхания и прочим. Технология настолько продвинулась, что фраза «это он/она, я по голосу узнаю» больше не работает. Потому что это может быть не он. Не она. Даже не вы.

Кому и зачем это нужно: как используют ваш голос

Мошенникам открылись новые горизонты. Раньше нужно было взламывать базы данных, перехватывать SMS, подделывать паспорта. Теперь всё проще — достаточно украсть голос. Вот типичные сценарии:

1. Взятие кредита или доступ к банковскому счёту

Некоторые банки используют голосовую биометрию: если голос совпадает, клиент считается идентифицированным. Казалось бы, удобно. Но если ваш голос сгенерирован нейросетью — мошенник может пройти эту проверку, особенно если процесс автоматизирован.

2. Обман родных и близких

Звонок: «Мама, я попал в беду, нужны деньги». Голос — один в один как у сына. Что сделает любящая мать? Переведёт деньги. Случаев таких — сотни, а может и тысячи, и с каждым месяцем их становится больше.

3. Мошенничество в бизнесе

Сотрудник одной из европейских компаний перевёл почти 250 000 долларов, думая, что разговаривает с директором. Голос был сгенерирован ИИ, а инструкции — поданы чётко и авторитетно. Он не сомневался ни секунды.

4. Взлом голосовых помощников и сервисов

Некоторые системы (например, Alexa, Siri, Google) реагируют на конкретный голос. Если ИИ сможет его сымитировать — возможно получение доступа к управлению домом, покупкам и данным.

Можно ли отличить фейковый голос?

Иногда — да. Но в большинстве случаев — нет. Современные ИИ модели звучат натурально, передают даже интонационные мелочи: вздохи, паузы, изменения громкости. Распознать синтез можно разве что с помощью специализированного ПО. А обычный человек — даже внимательный — может быть легко обманут.

Особенно когда ситуация подается как срочная: «авария», «полиция», «проблемы». Эмоции отключают критическое мышление.

Как защитить себя — простые, но важные правила

1. Никогда не полагайтесь только на голос

Даже если он звучит идеально знакомо — это не гарантия. Задавайте проверочные вопросы, которые знает только настоящий человек: «Как зовут твою собаку?», «Что мы ели вчера на ужин?»

2. Всегда перезванивайте

Если получили тревожный звонок — повесьте трубку и перезвоните на известный вам номер. Не отвечайте в эмоциях.

3. Изучите настройки безопасности в банках и сервисах

Уточните, используется ли у вас голосовая биометрия. Если используется — попросите отключить или добавить второй фактор (например, код по SMS).

4. Будьте осторожны с голосовыми сообщениями

Не отправляйте голосовухи с ключевыми фразами: «Да», «Я подтверждаю», «Это я». Эти фрагменты могут использоваться для генерации фейков.

5. Не поддавайтесь панике

Самое главное — не теряйте голову. Именно паника делает фейковый голос таким убедительным.

-2

Если вы стали жертвой

  1. Срочно позвоните в банк и заблокируйте операции.
  2. Обратитесь в полицию и зафиксируйте факт мошенничества.
  3. Напишите заявление в Роскомнадзор или в Центр мониторинга цифровых угроз.
  4. Предупредите близких — пусть тоже будут осторожны.
  5. Зафиксируйте все возможные доказательства (запись звонка, сообщения).

Будущее: война голосов

В ближайшие годы голос всё чаще будет использоваться не как признак личности, а как оружие. Нейросети станут ещё точнее. Мошенники — изощрённее. Нам предстоит научиться не доверять слуху так же, как уже давно не доверяем глазам (фотошоп и дипфейки сделали своё дело).

В ответ развиваются технологии, способные обнаруживать синтезированный голос. Крупные платформы уже тестируют инструменты, выявляющие "цифровой отпечаток" ИИ-речи. Но это гонка вооружений — кто быстрее: защита или злоумышленники?

Вывод

Ваш голос — это часть вашей личности. Но в цифровом мире он легко становится копией, а дальше ловушкой. Сегодня недостаточно "узнать по голосу". Сегодня важно проверять, уточнять и думать.

А вы бы смогли отличить фейковый голос близкого от настоящего, если бы вам позвонили ночью и попросили о помощи?