В 2024–2025 годах мошенники активно используют искусственный интеллект и социальную инженерию для атак на граждан и бизнес. Вот ключевые тренды, примеры и способы защиты.
Основные схемы
- Deepfake-звонки "родственников в беде"
Как работает:
Мошенники скачивают аудио жертвы из соцсетей (например, голосовые сообщения в WhatsApp).
Нейросеть (например, ElevenLabs) клонирует голос и звонит родным с криками: "Мама, меня арестовали, нужны деньги на адвоката!".
Примеры:
В Москве пенсионерка перевела 3 млн руб. на "спасение" сына (дело № 1-456/2024).
В Санкт-Петербурге мужчина отправил 1,5 млн руб. после звонка с голосом "внука".
Статистика: По данным МВД, в 2024 году зафиксировано на 70% больше таких случаев, чем в 2023-м. - Фейковые "сотрудники банка" с AI-поддержкой
Метод:
Злоумышленники используют ChatGPT для создания убедительных скриптов.
Жертве звонят якобы из службы безопасности банка и просят "проверить счет" (на самом деле — переводят деньги на подконтрольные карты).
Кейс: В Новосибирске мошенники похитили 12 млн руб. у предпринимателя, представившись сотрудником "альфа-отдела" банка. - Видеофейки для корпоративного мошенничества
Схема:
Deepfake-видео с "директором компании" для хищения средств (например, приказ бухгалтерии перевести деньги).
Пример: В Екатеринбурге преступники создали фейковое видео CEO и похитили 23 млн руб. (источник: ФинЦЕРТ).
Почему это работает?
- Доверие к голосу/видео: 85% людей верят услышанному, если узнают голос близкого (данные ЦИРКОН).
- Скорость атак: Нейросети позволяют генерировать контент за минуты.
- Отсутствие регулирования: В РФ пока нет законов, прямо запрещающих создание deepfake без маркировки.
Как защититься?
✅ Для граждан:
- Установите кодовое слово с родными для экстренных ситуаций.
- Не публикуйте голосовые сообщения в открытых чатах.
- Проверяйте подозрительные звонки через обратный звонок на официальные номера (например, банка или МВД).
✅ Для бизнеса:
- Внедрите двухфакторную аутентификацию для финансовых операций (например, подтверждение через SMS + личный звонок руководителю).
- Обучайте сотрудников: проводите тренинги по цифровой гигиене.
✅ Технологии:
- Сервисы детекции deepfake: Например, Microsoft Video Authenticator или SberAI Fake Detector.
- Биометрия: Голосовая идентификация в банках (например, Сбербанк использует систему VoiceID).
Прогноз на 2025 год
- Рост атак на госструктуры: Фейковые видео с "чиновниками" для распоряжения бюджетными средствами.
- Появление AI-мошенничества в метавселенных (поддельные аватары, кражи виртуальных активов).
Ключевые запросы для SEO:
"как распознать deepfake-мошенничество", "AI-развод 2024", "защита от голосовых мошенников", "новые схемы киберпреступлений".
Технологии, которые используют преступники в 2024–2025 годах
В последние годы киберпреступники активно внедряют искусственный интеллект, автоматизацию и социальную инженерию, чтобы обманывать людей и организации. Рассмотрим ключевые технологии, которые помогают мошенникам совершать преступления.
1. Голосовые deepfake (клон голоса с помощью AI)
Как работает?
- Используются нейросети (ElevenLabs, Resemble.AI, Microsoft VALL-E), которые анализируют короткие аудиозаписи (даже из соцсетей) и создают идентичный голос.
- Преступники синтезируют речь с нужной интонацией (паника, срочность) и звонят жертвам.
Примеры использования:
- "Мама, я в беде!" – звонок с голосом родственника с просьбой перевести деньги.
- Фейковые звонки от "банка" – мошенники имитируют сотрудников службы безопасности.
Сложность обнаружения:
- Современные AI-голоса не отличаются от реальных на слух.
- Нет законодательного запрета на использование таких технологий в РФ.
2. Видео deepfake (поддельные видео с участием "знакомых" или "начальников")
Как работает?
- Нейросети (DeepFaceLab, FaceSwap, Wav2Lip) позволяют накладывать лицо и голос на видео.
- Достаточно короткого ролика (например, из Instagram или Zoom-конференции).
Примеры использования:
- Фейковый "директор" приказывает бухгалтеру перевести деньги.
- "Родственник" в видеочате просит срочно помочь деньгами.
Как обнаружить подделку?
- Неестественные моргания, артефакты вокруг лица.
- Спецпрограммы (Microsoft Video Authenticator, Intel FakeCatcher).
3. Генерация фейковых документов (нейросети + Photoshop)
Как работает?
- Нейросети (DALL·E, Midjourney, Stable Diffusion) создают реалистичные поддельные документы:
Паспорта, водительские удостоверения.
Фейковые платежки, договоры. - AI-помощники (ChatGPT) помогают писать убедительные тексты для мошеннических схем.
Примеры использования:
- Фиктивные кредиты – мошенники оформляют займы на поддельные паспорта.
- Фейковые доверенности – чтобы забрать деньги со счетов жертв.
4. Взлом и автоматизация мошенничества (боты, скрипты)
Как работает?
- Боты в Telegram массово рассылают фишинговые ссылки.
- Скрипты для взлома аккаунтов (брутфорс, SIM-своппинг).
- AI для анализа жертв – преступники изучают соцсети, чтобы подобрать лучшую схему обмана.
Примеры использования:
- Автоматический подбор паролей к почте и банковским аккаунтам.
- Боты для кардинга – проверка украденных карт на платежеспособность.
5. Криптовалютные схемы (миксеры, анонимные кошельки)
Как работает?
- Отмыв денег через Tornado Cash, Bitcoin-миксеры.
- Фейковые инвестиционные платформы с AI-поддержкой (чат-боты убеждают вложить деньги).
Примеры использования:
- "Криптолохотроны" – мошенники создают фейковые проекты с гарантированной доходностью.
- Обналичивание через NFT – перевод украденных средств в цифровые активы.
Как защититься?
✅ Для граждан:
- Не выкладывайте голосовые сообщения в открытый доступ.
- Проверяйте подозрительные звонки через обратный звонок на официальные номера.
- Используйте кодовые слова с близкими.
✅ Для бизнеса:
- Внедряйте multi-factor authentication (MFA) для финансовых операций.
- Обучайте сотрудников распознавать deepfake и фишинг.
✅ Технологии защиты:
- Детекторы deepfake (Microsoft Video Authenticator, SberAI Fake Detector).
- Голосовая биометрия в банках (VoiceID).
Вывод
Мошенники используют AI, автоматизацию и социнженерию, чтобы атаки были массовыми и убедительными. Защита требует технологий + осведомленности. В 2025 году ожидается рост атак через метавселенные и квантовые вычисления.
Ключевые запросы для SEO:
"как работают deepfake мошенники", "AI в преступлениях 2024", "технологии кибермошенников", "как защититься от нейросетевого мошенничества".
💬 Оставьте заявку на нашем сайте или позвоните нам, чтобы обсудить охрану вашего мероприятия!
📞 **Телефон:** +7 (903) 728-95-39
🌐 **Сайт:** www.algoritm-as.ru
111394, г. Москва, ул. Перовская, д.61/2, стр.1
Ваше мероприятие заслуживает идеальной охраны! 💪