В 2024 году криптомир столкнулся с новой волной мошенничества — фальшивые токенсейлы с использованием deepfake-видео знаменитостей. Эксперты оценивают ущерб только за первый квартал в ₽4,7 млрд, а количество жертв растет в геометрической прогрессии. Как работают эти схемы и почему даже опытные инвесторы попадаются на удочку? Deepfake — это искусственный интеллект, способный создавать гиперреалистичные поддельные видео. Еще в 2022 году для генерации такого контента требовались мощные серверы, но сегодня нейросети вроде DeepFaceLab или Wav2Lip работают даже на домашних ПК. "Российские специалисты из Сколково первыми обнаружили, что 68% deepfake-атак в криптосфере используют открытые алгоритмы, доработанные студенческими командами" — доклад ЦБ РФ, март 2024. Мошенники действуют по отработанному сценарию: В январе 2024 года мошенники использовали deepfake Сергея Мавроди (да, даже после его смерти!) для продвижения "МММ 3.0". Видео набрало 2,3 млн просмотров в ВК, а сумма сборов превысила ₽
Как мошенники зарабатывают миллионы на DEEPFAKE-видео звезд в поддельных ICO
31 июля 202531 июл 2025
3
3 мин