Раньше преступники звонили со “скриптом” в руках и с голосом, записанным на диктофон. В 2025 году всё иначе. Сегодняшние аферисты используют нейросети для имитации голоса, создания фейковых видео и даже генерации “правдоподобной” переписки. Это больше не грубая подделка, а почти неотличимая реальность. Одна из самых популярных схем — “мама, я попал в ДТП”, где ваш голос просто скопировали с TikTok или Instagram. Пострадавшие переводят деньги моментально — на автомате, без проверки, потому что голос звучит настоящим. Технологии синтеза голоса позволяют за 10–15 секунд сгенерировать “ваш” голос и поставить его в любую фразу. Достаточно выложить в сеть пару видео или аудиозаписей — и мошенники могут говорить за вас. Более продвинутые схемы используют дипфейк-видео: вам может позвонить “друг”, “родственник” или даже “банковский сотрудник”, визуально похожий на настоящего, и просить данные карты или доступ к приложению. Многие теряют деньги, не успевая даже подумать — настолько убедительно
ИИ-мошенничество 2025: как нейросети помогают красть ваши деньги и голос
23 июля 202523 июл 2025
2 мин