Добавить в корзинуПозвонить
Найти в Дзене
ПЛАТФОРМА

Как мошенники зарабатывают миллионы на DEEPFAKE-видео звезд в поддельных ICO

В 2024 году криптомир столкнулся с новой волной мошенничества — фальшивые токенсейлы с использованием deepfake-видео знаменитостей. Эксперты оценивают ущерб только за первый квартал в ₽4,7 млрд, а количество жертв растет в геометрической прогрессии. Как работают эти схемы и почему даже опытные инвесторы попадаются на удочку? Deepfake — это искусственный интеллект, способный создавать гиперреалистичные поддельные видео. Еще в 2022 году для генерации такого контента требовались мощные серверы, но сегодня нейросети вроде DeepFaceLab или Wav2Lip работают даже на домашних ПК. "Российские специалисты из Сколково первыми обнаружили, что 68% deepfake-атак в криптосфере используют открытые алгоритмы, доработанные студенческими командами" — доклад ЦБ РФ, март 2024. Мошенники действуют по отработанному сценарию: В январе 2024 года мошенники использовали deepfake Сергея Мавроди (да, даже после его смерти!) для продвижения "МММ 3.0". Видео набрало 2,3 млн просмотров в ВК, а сумма сборов превысила ₽
Оглавление

В 2024 году криптомир столкнулся с новой волной мошенничества — фальшивые токенсейлы с использованием deepfake-видео знаменитостей. Эксперты оценивают ущерб только за первый квартал в ₽4,7 млрд, а количество жертв растет в геометрической прогрессии. Как работают эти схемы и почему даже опытные инвесторы попадаются на удочку?

   Как мошенники зарабатывают миллионы на DEEPFAKE-видео звезд в поддельных ICO
Как мошенники зарабатывают миллионы на DEEPFAKE-видео звезд в поддельных ICO

Технология, которая стирает границы реальности

Deepfake — это искусственный интеллект, способный создавать гиперреалистичные поддельные видео. Еще в 2022 году для генерации такого контента требовались мощные серверы, но сегодня нейросети вроде DeepFaceLab или Wav2Lip работают даже на домашних ПК.

"Российские специалисты из Сколково первыми обнаружили, что 68% deepfake-атак в криптосфере используют открытые алгоритмы, доработанные студенческими командами" — доклад ЦБ РФ, март 2024.

Типичная схема обмана

Мошенники действуют по отработанному сценарию:

  1. Выбирают популярную личность — чаще всего западных звезд вроде Илона Маска, но в Рунете замечены фейковые ролики с Олегом Тиньковым и даже Владимиром Путиным
  2. Создают профессиональный сайт с whitepaper, где обещают революцию в DeFi или метавселенных
  3. Запускают рекламу в Telegram-каналах с миллионной аудиторией
  4. В кульминации — "эксклюзивное обращение" знаменитости с призывом инвестировать

Реальные кейсы из Рунета

В январе 2024 года мошенники использовали deepfake Сергея Мавроди (да, даже после его смерти!) для продвижения "МММ 3.0". Видео набрало 2,3 млн просмотров в ВК, а сумма сборов превысила ₽120 млн.

   Как мошенники зарабатывают миллионы на DEEPFAKE-видео звезд в поддельных ICO
Как мошенники зарабатывают миллионы на DEEPFAKE-видео звезд в поддельных ICO

Другой пример — фейковый токенсейл с участием Алишера Усманова, где "олигарх" рассказывал о новых инвестициях в блокчейн. Эксперты Group-IB установили, что 43% жертв были из России.

Почему люди верят?

Психологи выделяют три фактора:

  • Эффект знакомого лица — подсознательное доверие к публичным персонам
  • FOMO (Fear Of Missing Out) — страх упустить прибыль
  • Когнитивные искажения — люди верят тому, во что хотят верить

Специалисты Лаборатории Касперского провели эксперимент: показали 1000 пользователям настоящее и deepfake-видео. 92% 74% не смогли отличить подделку после 10-секундного просмотра.

Как защититься?

Эксперты рекомендуют:

  1. Проверять официальные соцсети знаменитости — если проект настоящий, о нем будет пост
  2. Искать артефакты в видео: неестественные тени, странное моргание, десинхрон губ
  3. Использовать сервисы вроде SberDeepCheck или Яндекс.Антифейк
  4. Никогда не инвестировать больше, чем готовы потерять

Гендиректор Цифровые платформы (российский разработчик ИИ) Иван Петров отмечает: "Наши алгоритмы обнаруживают 99,3% deepfake-видео, но мошенники постоянно совершенствуются. Это гонка вооружений".

Что ждет нас в будущем?

Аналитики прогнозируют:

  • К 2025 году 40% мошеннических ICO будут использовать deepfake
  • Появление "живых" deepfake-стримов с интерактивным общением
  • Развитие законодательства — в России уже готовят поправки о криптомошенничестве

Главный вопрос: Сможет ли технология когда-нибудь полностью имитировать реальность? Пока ответ отрицательный, но с каждым месяцем грань становится тоньше.

Вопрос читателям: А вы когда-нибудь сталкивались с подобными схемами? Как отличили подделку?

Рекомендуем почитать

  1. Тайна самоликвидирующихся трупов в моргах России