Технологии подделки голоса совершенствуются и становятся частью мошеннических схем, рассказал в беседе с RT генеральный директор «Диджитал Маркетс» Илья Назаров. «Для имитации чужой речи достаточно 30 секунд записи. Это может быть голосовое сообщение, ролик из соцсети или даже фрагмент интервью. Не имеет значения, связанный ли это текст. Алгоритм учится на звуковых особенностях, а чем больше материала, тем качественнее подделка», — рассказал он. На практике мошенники используют такие технологии для социальной инженерии, продолжил эксперт. «Поддельный голос может появляться как в аудиосообщении, так и в реальном звонке с помощью технологий voice cloning и deepfake. Это создаёт иллюзию, что с жертвой общается знакомый человек: друг, родственник или коллега», — предупредил он. Услышав знакомый голос, человек легче вступает в контакт, пояснил Назаров. «Злоумышленники могут напрямую просить деньги либо убеждать поговорить с «сотрудником полиции». Тот уже запугивает и подталкивает оформить к
Привет, пап, скинь денег? Мошенники подделывают голоса близких — как защититься?
2 сентября 20252 сен 2025
9
1 мин