Технологии синтеза голоса достигли уровня, когда мошенники могут идеально копировать тембр и интонации близких людей. В 2025 году это привело к взрывному росту атак через звонки — только за первый квартал в России зафиксировано 23 000 случаев, где преступники использовали AI-голос. Один из таких эпизодов закончился кражей 1,2 млн рублей у пенсионерки из Новосибирска. Как работала схема Звонок поступил утром, когда дочь пенсионерки была на работе. Голос, идентичный дочернему, паниковал: "Мама, я попала в ДТП, срочно нужны деньги на адвоката!". Фоном слышались гудки машин и крики — позже выяснилось, это запись с YouTube. Мошенники знали имя матери, адрес и даже кличку семейной собаки. За 40 минут они убедили женщину: Откуда взялись персональные данные Эксперты Group-IB обнаружили в даркнете базу с 4,7 млн профилей россиян, слитую через взломанный сервис доставки еды. Там были: Киберпреступники тренировали нейросети на этих записях. Точность имитации достигла 98% — система копировала даже
Мошенники украли у моей мамы миллион рублей под моим голосом
21 апреля 202521 апр 2025
4
1 мин