Добавить в корзинуПозвонить
Найти в Дзене
GETSCAM

Как мошенники используют искусственный интеллект: дипфейки, подделка голосов и фальшивые видео

Искусственный интеллект перестал быть лишь инструментом программистов и перешёл в арсенал преступников. В 2025 году ИИ помогает не только создавать музыку и тексты, но и масштабировать обман, делая его убедительным и почти неотличимым от реальности. Дипфейки, синтез речи и генерация видео — уже не футуризм, а работающие схемы в руках мошенников. 📌 Как ИИ стал частью мошеннических схем Дипфейки: лицо, которое вам знакомо
С помощью нейросетей создаются поддельные видео с участием знаменитостей, политиков или ваших знакомых. Их «голосом» просят перевести деньги, участвовать в сборе, пройти «верификацию».
 Подробнее: 👉 Мошенничество с инвестициями: как не попасть на уловки аферистов Пример: фейковый Zoom-звонок от «руководителя», где его лицо в видео и голос были полностью синтезированы. Сотрудник компании перевёл 180 000 ₽ на «новый счёт». Голосовые фейки (voice spoofing)
Алгоритмы синтезируют голос человека на основе короткой записи. Мошенники звонят «от имени сына/начальника/друга»

Искусственный интеллект перестал быть лишь инструментом программистов и перешёл в арсенал преступников. В 2025 году ИИ помогает не только создавать музыку и тексты, но и масштабировать обман, делая его убедительным и почти неотличимым от реальности. Дипфейки, синтез речи и генерация видео — уже не футуризм, а работающие схемы в руках мошенников.

📌 Как ИИ стал частью мошеннических схем

Дипфейки: лицо, которое вам знакомо
С помощью нейросетей создаются поддельные видео с участием знаменитостей, политиков или ваших знакомых. Их «голосом» просят перевести деньги, участвовать в сборе, пройти «верификацию».
 Подробнее: 👉
 Мошенничество с инвестициями: как не попасть на уловки аферистов

Пример: фейковый Zoom-звонок от «руководителя», где его лицо в видео и голос были полностью синтезированы. Сотрудник компании перевёл 180 000 ₽ на «новый счёт».

Голосовые фейки (voice spoofing)
Алгоритмы синтезируют голос человека на основе короткой записи. Мошенники звонят «от имени сына/начальника/друга» и просят деньги.

Фальшивые видео с экспертами и блогерами
ИИ создаёт видео, где «известный эксперт» якобы рекомендует вложиться в криптовалюту или отправить средства на благотворительность. Часто такие ролики распространяются в Telegram, TikTok и YouTube Shorts.
 Подробнее: 👉
 Мошенничество с криптовалютами: распространённые схемы

Подмена личности при верификации
Фейковые лица и документы используются для прохождения KYC в банках, криптобиржах и сервисах. Фото и видео сгенерированы нейросетями.
 Подробнее: 👉
 Телефонные мошенничества: как подмена номера стала доступной и что делать, чтобы не попасться

Автоматизация обмана
ИИ-боты имитируют поведение реального человека — шутят, отвечают по теме, подстраиваются под эмоции.
 Подробнее: 👉
 Социальная инженерия: методы обмана и противодействие

Уточнить данные о человеке по всем доступным государственным базам

GETSCAM| Проверка Граждан РФ по открытым базам данных: МВД, ФМС, ФНС, ФССП, ГИС ГМП, ФНП, ЕФРСБ, ГИБДД и других государственных органов.

📍 Реальные примеры

📍 В США CEO компании перевёл $240 000 после видеозвонка с «директором из головного офиса». Позже выяснилось: это был дипфейк с голосом и внешностью начальника.
 📍 В Подмосковье женщина перевела 35 000 ₽ «сыну», попавшему в аварию. Звонил голос, полностью идентичный настоящему — применён AI-спуфинг.
 📍 В TikTok распространялись видео с «Рогозиным», «Собяниным» и «Маском», призывающими вложиться в проект с гарантированной прибылью. Всё — дипфейки, созданные нейросетями.
 Подробнее: 👉
 Фальшивые отзывы и рейтинги: как не попасться на обман

🧾 Как отличить фейк от реальности

  • Лицо «плавает» или искажено при движении;
  • Мимика выглядит «резиновой»;
  • Голос звучит неестественно ровно;
  • Нет реакции на неожиданные вопросы;
  • Видео не найдено через поиск по картинке.

🧠 Мнение редакции GetScam.com

Мы в GetScam.com фиксируем рост обращений, связанных с дипфейками и голосовыми фейками. Опасность в том, что обман теперь можно клонировать бесконечно. Один исходник — тысячи фальшивок. Особенно уязвимы пожилые, дети и сотрудники, работающие удалённо.
 Подробнее: 👉
 Что делать, если вам угрожают по телефону

✅ Как защититься от AI-мошенничества

  • Не верьте звонкам и видео без проверки;
  • Перезванивайте напрямую и уточняйте детали;
  • Задавайте личные вопросы, которые знает только знакомый;
  • Не переводите деньги по голосовым или видео-запросам;
  • Используйте антивирус с защитой от фишинга;
  • Включайте двухфакторную авторизацию (2FA).

Уточнить данные о человеке по всем доступным государственным базам

GETSCAM| Проверка Граждан РФ по открытым базам данных: МВД, ФМС, ФНС, ФССП, ГИС ГМП, ФНП, ЕФРСБ, ГИБДД и других государственных органов.

📎 Полезные материалы на GetScam.com:

📍 Вывод

ИИ стал новым оружием мошенников. Голос, видео и даже поведение могут быть полностью сгенерированы. Больше нельзя верить даже «живому» звонку или видео — проверка теперь обязательна. Реальность начинается там, где вы подтверждаете информацию самостоятельно.