Найти в Дзене
Social Mebia Systems

Клонирование голоса с помощью AI: как мошенники воруют голоса звёзд и обычных людей

В последние годы искусственный интеллект сделал голосовые технологии доступными каждому. Теперь любой пользователь может записать короткий фрагмент своей речи — и AI мгновенно создаст его цифрового двойника, способного говорить с той же интонацией и тембром. Но вместе с удобством пришли и новые угрозы: мошенники массово используют AI для кражи голосов знаменитостей и обычных людей, чтобы обманывать доверчивых пользователей. Как работает кража голоса? Технология "клон-голоса" уже встроена во многие платформы для создания коротких видео и аудиороликов. Достаточно загрузить несколько секунд записи — и AI сможет воспроизвести ваш голос, а иногда даже имитировать дыхание, эмоции и окружающие звуки. Это открывает огромные возможности для творчества, но и создаёт почву для злоупотреблений. Знаменитости "продают" яйца, не зная об этом В Китае разгорелся скандал: в популярных коротких видео олимпийская чемпионка Цюань Хунчань якобы лично рекламирует домашние яйца, обращаясь к фанатам с просьбой

В последние годы искусственный интеллект сделал голосовые технологии доступными каждому. Теперь любой пользователь может записать короткий фрагмент своей речи — и AI мгновенно создаст его цифрового двойника, способного говорить с той же интонацией и тембром. Но вместе с удобством пришли и новые угрозы: мошенники массово используют AI для кражи голосов знаменитостей и обычных людей, чтобы обманывать доверчивых пользователей.

Как работает кража голоса?

Технология "клон-голоса" уже встроена во многие платформы для создания коротких видео и аудиороликов. Достаточно загрузить несколько секунд записи — и AI сможет воспроизвести ваш голос, а иногда даже имитировать дыхание, эмоции и окружающие звуки. Это открывает огромные возможности для творчества, но и создаёт почву для злоупотреблений.

Знаменитости "продают" яйца, не зная об этом

В Китае разгорелся скандал: в популярных коротких видео олимпийская чемпионка Цюань Хунчань якобы лично рекламирует домашние яйца, обращаясь к фанатам с просьбой поддержать ее семью. Видео быстро набрало десятки тысяч покупок, но семья спортсменки заявила: голос — подделка, созданная AI, а сама Цюань Хунчань не давала никакого согласия на рекламу.

Аналогичные случаи произошли с другими известными спортсменами — их "голоса" использовали для продвижения товаров без ведома и разрешения. В прошлом году похожая история случилась с основателем Xiaomi Лэй Цзюнем: его голос клонировали для создания фейковых роликов с провокационными высказываниями.

В США в 2024 году голос президента Джо Байдена был сымитирован для телефонных звонков, в которых избирателей призывали не голосовать на праймериз.

Мошенничество с голосом: опасность для каждого

Проблема касается не только звезд. Обычные люди тоже становятся жертвами: мошенники могут использовать AI-клон вашего голоса, чтобы позвонить вашим родственникам и выманить деньги, представившись вами в беде. По данным исследования McAfee, 70% людей не могут отличить настоящий голос от сгенерированного AI, а почти 8% уже стали жертвами подобных афер, потеряв от 500 до 15 000 долларов.

Чаще всего мошенники имитируют голос близких и сообщают о несчастных случаях, кражах, утере документов или проблемах за границей, чтобы вызвать сочувствие и получить деньги.

Как мошенники получают ваш голос?

  1. Социальные сети и видео: любой опубликованный ролик с вашим голосом может быть использован для создания клона.
  2. Соглашения в приложениях: иногда, не читая пользовательское соглашение, вы сами разрешаете использовать свой голос.
  3. Ложные вакансии: предложения "подработать диктором" или "озвучить аудиокнигу" могут быть прикрытием для сбора голосовых данных.

Для создания качественного клона достаточно всего 3 секунд записи — этого хватит, чтобы AI воспроизвел до 85% особенностей вашей речи, а с дополнительными данными точность достигает 95%.

Как защититься?

  • Проверяйте информацию: если вам звонят с просьбой о помощи, всегда перезванивайте родственнику или используйте заранее оговоренный "секретный код".
  • Объясните риски пожилым родственникам: именно они чаще всего становятся жертвами новых схем.
  • Осторожно с публикацией голоса: не выкладывайте лишние аудиозаписи в открытый доступ.
  • Внимательно читайте пользовательские соглашения: не давайте разрешение на использование голоса сомнительным приложениям.

Закон и регулирование

В Китае уже принимаются меры для защиты голосовых прав. С 2020 года голос официально признан объектом гражданской защиты, а в 2024 году суд впервые обязал компании выплатить компенсацию диктору за незаконное клонирование его голоса. С 1 сентября 2025 года вступает в силу новый закон, обязывающий помечать все AI-сгенерированные аудио- и видеоматериалы специальной маркировкой.

Вывод

AI-голосовые технологии — это не только удобство, но и новые риски. В эпоху, когда подделать голос стало проще простого, каждому стоит быть внимательнее к своим данным и помнить: даже короткая запись может стать инструментом мошенников.