Найти в Дзене
IT-Технологии

Фишинг с Deepfake: как мошенники используют ИИ для обмана

В этой статье разберём: Deepfake (от "deep learning" + "fake") — это технология, которая с помощью нейросетей подделывает голос, лицо и даже манеру речи человека. Раньше deepfake использовали для развлечения (например, "оживляли" актёров), но теперь мошенники применяют его для: Как это работает? Реальный случай (2024):
В Гонконге мошенники похитили $25 млн, представившись CFO компании во время видеоконференции. Как это работает? Статистика:
В 2024 году каждая 5-я атака с голосовым фишингом использовала deepfake. Как это работает? ✅ Никогда не переводите деньги по устному распоряжению — перезвоните человеку на известный номер.
✅ Проверяйте подозрительные звонки — задайте личный вопрос, который знает только настоящий собеседник.
✅ Не публикуйте в открытом доступе голосовые сообщения — их могут использовать для клонирования. ✅ Внедрите многофакторную аутентификацию (MFA) — даже если голос поддельный, без кода доступ не получить.
✅ Обучите сотрудников — проводите тренинги по кибербезопасно
Оглавление

С развитием искусственного интеллекта мошенники нашли новый способ обмана — deepfake-фишинг. Теперь вместо примитивных писем "от банка" злоумышленники создают поддельные видео, голосовые сообщения и даже звонки в реальном времени, выдавая себя за доверенных лиц.

В этой статье разберём:

  • Как работает deepfake-фишинг?
  • Какие сценарии используют преступники?
  • Как защитить себя и бизнес от обмана?

Что такое deepfake-фишинг?

Deepfake (от "deep learning" + "fake") — это технология, которая с помощью нейросетей подделывает голос, лицо и даже манеру речи человека.

Раньше deepfake использовали для развлечения (например, "оживляли" актёров), но теперь мошенники применяют его для:

  • Финансового мошенничества (поддельные переводы, вымогательство).
  • Кражи данных (вход в корпоративные системы).
  • Шантажа и дезинформации.

3 главных сценария deepfake-атак

1. Видеозвонки от «начальника»

Как это работает?

  • Злоумышленники находят в соцсетях публичные видео CEO или топ-менеджера.
  • Обучают нейросеть копировать его голос и лицо.
  • Связываются с сотрудником (например, из финансового отдела) и просят срочно перевести деньги.

Реальный случай (2024):
В Гонконге мошенники
похитили $25 млн, представившись CFO компании во время видеоконференции.

2. Голосовые фишинговые звонки «от родственника»

Как это работает?

  • Преступники находят в соцсетях голосовые сообщения жертвы.
  • Клонируют голос с помощью ИИ (например, через ElevenLabs).
  • Звонят пожилым людям, притворяясь внуком в беде ("Меня арестовали, нужны деньги на адвоката!").

Статистика:
В 2024 году
каждая 5-я атака с голосовым фишингом использовала deepfake.

3. Поддельные верификационные звонки

Как это работает?

  • Мошенники звонят, представляясь сотрудником банка или госслужбы.
  • Используют ИИ-голос, чтобы запросить SMS-код или данные карты.
  • Жертва думает, что говорит с роботом, но на самом деле это живой мошенник с синтезированным голосом.

Как защититься от deepfake-фишинга?

🔒 Для обычных пользователей:

Никогда не переводите деньги по устному распоряжению — перезвоните человеку на известный номер.
Проверяйте подозрительные звонки — задайте личный вопрос, который знает только настоящий собеседник.
Не публикуйте в открытом доступе голосовые сообщения — их могут использовать для клонирования.

🏢 Для бизнеса:

Внедрите многофакторную аутентификацию (MFA) — даже если голос поддельный, без кода доступ не получить.
Обучите сотрудников — проводите тренинги по кибербезопасности.
Используйте цифровые подписи для подтверждения финансовых операций.

Будущее deepfake-фишинга

К 2026 году эксперты прогнозируют:

  • Рост атак на госструктуры (поддельные обращения политиков).
  • Использование нейроинтерфейсов для ещё более реалистичного обмана.
  • Развитие детекторов deepfake, но мошенники тоже будут совершенствоваться.

Вывод: не верьте ушам и глазам

Технологии deepfake делают мошенников невидимыми и неуловимыми. Единственный способ защиты — критическое мышление и проверка информации.

🚨 Помните: если кто-то просит деньги или данные под давлением — это повод нажать на паузу и перепроверить.

💬 А вы сталкивались с deepfake? Делитесь в комментариях!