Найти в Дзене
Стоит знать - Science XXI

Мошенники обошли главную проблему дипфейков — задержку при генерации голоса

Компания NCC Group, специализирующаяся на вопросах кибербезопасности, сообщила о разработке метода воссоздания человеческого голоса на базе искусственного интеллекта, который функционирует в режиме реального времени. Эта система создана с использованием общедоступного программного обеспечения и стандартного компьютерного оборудования, что делает технологию потенциально доступной для широкого круга лиц, включая злоумышленников.

Особенностью разработанного инструмента является его простота в использовании. После короткого периода обучения система активируется нажатием одной кнопки через веб-интерфейс. Технология позволяет убедительно имитировать голос любого человека даже при использовании некачественного входного сигнала, например, со встроенного в ноутбук микрофона. При этом задержка при генерации голоса оказывается минимальной, что открывает широкие возможности для мошеннических схем.

Ключевым преимуществом новой системы является ее работа в реальном времени. Существующие технологии подделки голоса, как правило, создают готовый аудиофайл с заранее записанными фразами. Такую схему легко раскрыть, если разговор отклоняется от подготовленного сценария. Новая же разработка практически устраняет задержку, которая ранее выдавала мошенников при попытке сгенерировать ответ «на лету». Эффективность метода была подтверждена в ходе эксперимента с клиентами NCC Group, которые с их согласия не смогли распознать подмену.

В то же время отмечается, что видеодипфейки пока не достигли такого уровня и не могут работать в реальном времени без задержек. Крупные социальные сети, включая TikTok, YouTube и Instagram (принадлежит компании Meta, признанной в РФ экстремистской и запрещенной), столкнулись с волной видеоподделок, созданных с помощью общедоступных инструментов. Однако слабой стороной таких видео остается недостаточная синхронизация изображения и звука.

Эксперты предупреждают, что несоответствие мимики и интонации голоса может выдать подделку на видео. Тем не менее, стремительное развитие технологий заставляет пересматривать существующие методы защиты. Специалисты приходят к выводу, что в будущем системы аутентификации не должны полагаться исключительно на голосовые или видеозвонки, так как эти каналы становятся все более уязвимыми.