К концу 2025 года каждый второй россиянин может столкнуться с дипфейк-атакой. Особенно опасны случаи, когда мошенники звонят голосом ваших родственников — такие разговоры всё сложнее отличить от настоящих. В 2026 году ожидается новый виток обмана: реальные голосовые звонки, сгенерированные ИИ в режиме онлайн. Разберёмся, как работают голосовые дипфейки, какие схемы используют аферисты, и как распознать подделку, чтобы не потерять деньги и доверие к близким. Голосовой дипфейк — это подделка речи с помощью нейросетей, которые обучаются на записи голоса конкретного человека. Достаточно 3–5 минут аудио, чтобы ИИ смог воспроизвести нужную интонацию, тембр, паузы и даже эмоциональную окраску. Сегодня мошенники могут легко «озвучить» фразу типа: «Мама, срочно нужно 50 тысяч — попал в аварию. Не могу говорить, перезвоню позже!» …и вы даже не заподозрите подвох. Такие схемы уже применяются в WhatsApp, Telegram и через обычные звонки. ИИ-мошенники в 2025 году — это целая индустрия. Вот популярны
Мошенники звонят голосом родственника: как ИИ стал оружием, и как распознать голосовой дипфейк
8 мая8 мая
13
2 мин