Мошенники научились подделывать голоса и даже образы людей, чтобы украсть деньги, жертвами такой схемы могут стать пожилые люди, рассказал эксперт направления информационной безопасности Центра цифровой экспертизы Роскачества Сергей Кузьменко «Прайму». Для обмана мошенники используют нейросети с машинным обучением на основе искусственного интеллекта. Чтобы создать «клон голоса» любого человека, аферистам достаточно получить 20-секундный фрагмент с разговором из социальной сети. «Идентичность поражает настолько, что даже мать не сможет отличить голос своего ребенка от робота», — предупредил специалист. Схема работает просто: человеку поступает звонок от родственника, который срочно просит деньги (например, на возмещение ущерба в результате ДТП). Только разговаривает на самом деле нейросеть. Более того, мошенники научились подделывать образ. Искусственный интеллект позволяет наложить ненастоящие изображение или видео на реальные, эта технология называется «дипфейк». Волна дипфейков, по с