Вчера я получил звонок от своего друга. Его голос звучал взволнованно: "Слушай, срочно нужна помощь, попал в ситуацию...". Я уже начал спрашивать подробности, но что-то меня остановило. Я перезвонил по другому номеру — и друг спокойно ответил, что ничего не происходит. Это был deepfake.
Я решил разобраться, насколько легко сегодня клонировать чужой голос. И результаты меня шокировали.
Эксперимент: клонирую свой собственный голос
Для чистоты эксперимента я решил создать копию собственного голоса. Взял простую и бесплатную программу на Python под названием RVC (Retrieval-based Voice Conversion), нашёл инструкцию в открытом доступе и начал.
Что мне понадобилось? Всего лишь 10-секундная запись моего голоса с диктофона телефона. Я просто записал, как читаю несколько предложений из новостей. Никакого профессионального оборудования, никакой студии.
Через 15 минут программа выдала результат. Я загрузил туда аудиофайл с другим текстом, который зачитал нейтральным голосом, и модель преобразовала его в мой голос. Когда я включил запись жене, она сначала не поняла подвоха. "Это же ты говоришь?", — удивилась она.
Качество было не идеальным, но пугающе убедительным. Небольшие артефакты в интонации были заметны только при внимательном прослушивании.
Как работает технология
Deepfake голоса — это технология, основанная на глубоком обучении нейросетей. Алгоритм анализирует характеристики вашего голоса: тембр, ритм, интонации, манеру речи. Затем он создаёт математическую модель, которая может генерировать новые фразы вашим голосом.
Современные исследования показывают пугающую тенденцию: профессор Университета Буффало Сивей Лю заявил, что клонирование голоса в 2026 году перешло "порог неразличимости". Всего несколько секунд аудио достаточно для создания убедительной копии — со всеми паузами, дыханием и эмоциональными оттенками.
Технология развивается стремительно. Если в 2023 году в сети было около 500 тысяч deepfake-материалов, то к 2025 году их число выросло до 8 миллионов. Рост почти на 900% за два года.
Где это используется легально
Справедливости ради, технология создавалась не для мошенничества. Её применяют в кино для дубляжа, восстанавливают голоса людей, утративших способность говорить, создают аудиокниги голосами знаменитых актёров. Даже Дэвид Бекхэм участвовал в благотворительной кампании, где его голос "говорил" на девяти языках благодаря deepfake.
Но как это часто бывает с технологиями, в чужих руках она становится оружием.
Тёмная сторона: мошенничество на миллионы
В России ситуация становится критической. По данным МВД, в октябре 2025 года мошенники начали массово использовать клонированные голоса детей, чтобы выманивать деньги у родителей. Звонят якобы от лица ребёнка, голос узнаваем, история правдоподобная: "Мама, у меня проблемы, срочно нужны деньги".
Крупные ритейлеры сообщают, что получают более 1000 мошеннических звонков с AI-голосами ежедневно. Злоумышленники даже создают deepfake голосов умерших людей, чтобы оформлять займы или манипулировать родственниками.
Один из самых громких случаев произошёл в Гонконге: мошенники с помощью deepfake-технологий выманили у жертв 46 миллионов долларов, создавая поддельные видео для знакомств.
Как я чуть не попался
После эксперимента я стал параноиком. Неделю назад мне написала в мессенджер "коллега по работе" с просьбой срочно посмотреть документ по ссылке. Голосовое сообщение было её голосом, но... я решил перезвонить. Оказалось, её аккаунт взломали.
Характерные признаки, на которые я обратил внимание: слишком монотонный тон, отсутствие характерных для неё словечек и небольшие паузы в неожиданных местах — будто речь собрана по кусочкам.
Как защититься: практические советы
После всего, что я узнал, составил для себя (и теперь делюсь с вами) список правил безопасности:
1. Договоритесь о кодовой фразе
С близкими людьми придумайте секретный вопрос или фразу, которую знаете только вы. Если вам звонит "родственник" с просьбой о срочной помощи — задайте контрольный вопрос.
2. Не спешите действовать
Мошенники давят на эмоции и создают ощущение срочности. Возьмите паузу. Перезвоните человеку по другому номеру или через другой мессенджер. Это займёт 2 минуты, но может спасти ваши деньги.
3. Слушайте внимательно
Признаки deepfake: неестественная монотонность, роботизированные интонации, резкие обрывы фоновых шумов, странные паузы. Современные системы почти идеальны, но артефакты всё ещё проскальзывают.
4. Ограничьте цифровой след
Уберите из открытого доступа видео и аудио с вашим голосом. Не записывайте длинные голосовые сообщения в публичных чатах. Замените голосовой автоответчик на стандартный. Чем меньше материала для обучения нейросети — тем лучше.
5. Проверяйте, даже если доверяете
В эпоху deepfake работает принцип "нулевого доверия": любой звонок, видео или аудиосообщение может быть подделкой. Даже если видите лицо и слышите голос человека на видеозвонке — задавайте вопросы, ответы на которые знаете только вы двое.
6. Используйте технологические защиты
Некоторые банки уже внедрили системы распознавания deepfake-голосов. Сбербанк, например, разработал антифрод-систему, которая определяет синтетическую речь. Если ваш банк предлагает дополнительную биометрическую защиту — не игнорируйте её.
Будущее уже здесь
Самое тревожное: технология продолжает совершенствоваться. В 2026 году появляются системы, которые могут создавать deepfake в режиме реального времени. Представьте: вам звонят, вы задаёте вопросы — и AI адаптивно отвечает голосом вашего знакомого, подстраиваясь под разговор.
Эксперты предупреждают, что простого "смотреть внимательнее" уже недостаточно. Нужны криптографические подписи контента, технологии верификации и, главное, цифровая грамотность каждого из нас.
Мой вывод
Технология deepfake — это не фантастика и не завтрашний день. Это реальность сегодняшнего дня. И пока законодательство и технологии защиты догоняют преступников, единственная по-настоящему надёжная защита — это ваша бдительность.
Помните: три секунды вашего голоса — это всё, что нужно мошеннику. Но несколько секунд на проверку — это всё, что нужно вам, чтобы не стать жертвой.
А вы сталкивались с подозрительными звонками? Делитесь опытом в комментариях — вместе мы сможем защитить больше людей от этой угрозы.