Поговорили с директором по big data Future Crew Кириллом Малковым о том, как технологии генерации голоса могут использовать мошенники, и по каким признакам их можно определить.
- Какие возможности даёт мошенникам чужой голос?
- Если примерам с дипфейками уже много лет, то подражание голосу – это либо клонирование голоса, либо генерация голоса с нуля – пока не настолько распространено. В этом году мошенники начали активнее использовать генерацию голоса для звонков и сообщений якобы от имени родного или известного человека. К примеру, голосовые сообщения от знакомых в WhatsApp, где они просят «одолжить 50 тысяч до послезавтра» или история со звонком от дочери, за которую требуют выкуп «похитители».
Интересна и недавняя история с Еленой Блиновской, создательницей марафонов личностного роста. Она сейчас под домашним арестом и без доступа к интернету. Тем временем мошенники взломали её аккаунт в Telegram, публиковали фейковые голосовые сообщения от её имени и «продавали» новый марафон со скидками. Для убедительности мошенники использовали не только генерацию голоса, но и её архивные фотографии и видео, якобы она на связи. По просьбе адвоката Елены Telegram заблокировал канал.
- Есть ли технологии, определяющие, что голос неоригинальный?
- Технологии автоматического определения voice-клонов развиваются не так активно, как могли бы, встречаются разные варианты реализации. Готовых, стабильных и крутых решений, такой полиции дипфейков, я не видел – тем более, что ещё недавно в них и не было потребности на рынке.
А для анализа изображений и определения на них следов работы нейросетей эффективные решения уже есть. Если дипфейк плохой, то это видно невооружённым взглядом. А если дипфейк хороший, то есть нет проблем с наложением света, маска гармонично сливается с оригинальным лицом и так далее, то человек может ошибиться, а вот алгоритмы смогут определить, что фотография или видео ненастоящие. Кстати, на некоторых площадках дипфейки постепенно начинают запрещать, к примеру, на Reddit и Pornhub.
- По каким признакам можно понять, что это не близкий человек в беде, а мошенники?
- Это сложно прежде всего психологически. Близкий человек в беде – а ты сомневаешься, верить ему или нет. Но когда кажется, что что-то не так, то вот аспекты, на которые стоит обратить внимание при звонке:
1️. Прислушайтесь к голосу. Если некоторые окончания произносятся неправильно, если фразы обрываются, если звук как будто металлический – то эти признаки могут говорить о том, что вас пытаются обмануть. И всё же возможно, что это просто плохая связь.
2️. Попробуйте поговорить с человеком на темы, которые вряд ли получится «заскриптовать» заранее. И тут технологии, которые сейчас есть, либо упрутся во время генерации и ответ будет долго формироваться, либо не смогут предложить адекватный ответ на нестандартный вопрос. Мошенники не придумают быстро, что сказать, а заготовленной сгенерированной фразы у них не будет.
С голосовыми сообщениями сложнее: при большом объёме чистых исходных данных, то есть образцов голоса и видео человека, действительно можно создать правдоподобную генерацию. Определить обман в таком случае – интересная задача, и мы подумаем над тем, чтобы создать сервис, который будет понимать, фейк это или не фейк – это выглядит совсем несложной задачей.
Мы со всех сторон развиваем направления генерации и распознавания голоса, такие технологии задействованы и в Membrana, а о новых продуктах я пока не расскажу – это на Новый год.