Washington Post сообщает, что недавно канадской паре в возрасте 70 лет позвонил внук и сказал, что он находится в тюрьме и ему нужны деньги на залог. Они сняли максимум 3 000 канадских долларов в одном банке и собирались снять такую же сумму в другом, когда менеджер сказал им, что их обманывают; оказалось, что другой клиент получил такой же звонок и узнал, что он был поддельным.Другой парой, которой не повезло, были родители Бенджамина Перкина. Им позвонил адвокат и сообщил, что их сын убил американского дипломата в автомобильной аварии, а Перкин находится в тюрьме и нуждается в деньгах для оплаты судебных издержек. Адвокат дал трубку Перкину, который сказал, что любит их и благодарен за деньги.Голос звучал "достаточно близко, чтобы мои родители поверили, что они действительно говорят со мной", - сказал Перкин. Его родители отправили 15 449 долларов мошеннику через биткоин-терминал и до сих пор не смогли получить их обратно.Голосовые мошенничества не новы. Данные Федеральной торговой комиссии показывают, что из 36 000 сообщений в прошлом году о том, что люди были обмануты преступниками, выдававшими себя за друзей или родственников, более 5 100 случаев произошли по телефону.Раньше подделка голоса человека была сложной и длительной процедурой, включающей в себя обнаружение и сбор многочасовых аудиозаписей, и конечный результат не всегда был очень убедительным. Однако теперь инструменты искусственного интеллекта настолько упростили этот процесс, что мошенникам достаточно небольшого ролика, часто собранного из аккаунта в социальных сетях, чтобы точно воссоздать голос человека.Примером такой технологии является инструмент Vall-E от Microsoft, о котором компания объявила в январе. Основанный на технологии под названием EnCodec, которую Meta анонсировала в октябре 2022 года, он работает путем анализа голоса человека, разбиения информации на компоненты и использования своего обучения для синтеза того, как бы звучал голос, если бы он произносил различные фразы. Даже после прослушивания всего трехсекундного образца Vall-E может воспроизвести тембр голоса и эмоциональный тон говорящего. Убедиться в том, насколько это убедительно, можно на этой странице GitHub.Компания ElevenLabs, предлагающая генеративный голосовой инструмент ИИ, недавно написала в Твиттере, что она наблюдает "растущее число случаев злоупотребления клонированием голоса". Это привело к удалению возможности клонирования голоса из бесплатной версии программы VoiceLab.
Телефонный развод "Мама я сбил человека, нужны деньги" докатился до США, но уже с использованием ИИ
2 минуты
132 прочтения
6 марта 2023