В 2025 году голосовые ИИ перешли в новую фазу. Теперь это не просто чат-боты, а голосовые двойники, которые умеют: копировать интонации имитировать тревогу воспроизводить реальные фразы из соцсетей И они уже атакуют самое слабое звено — наших родителей и бабушек. Как это работает? Мошенники используют открытые аудиозаписи (из TikTok, WhatsApp, YouTube, даже голосовых сообщений) и с помощью нейросетей создают голосовые клоны. Далее — дело техники: 1. ИИ звонит на домашний номер 2. Представляется “внуком” или “дочкой” 3. Сообщает, что попал в беду: ДТП, полиция, срочная операция 4. Просит перевести деньги “здесь и сейчас” Почему это работает идеально? Эмоциональное давление: “Срочно! Помоги мне!” Авторитет “голоса родного человека” Полный шок: человек не успевает задуматься ИИ разговаривает уверенно, по скрипту, с паузами, с дыханием. Это больше не робот. Это угроза 2.0. Реальные случаи Москва, 2024: женщина 68 лет перевела 480 000 ₽ “внуку”, попавшему в “ДТП” Тула: пен