Найти в Дзене
AntiRunet

Ваш голос и лицо могут обернуться против вас: мошенники захватывают контроль с помощью ИИ!

В 2024 году мошенники активно используют современные технологии для обмана граждан. Одним из наиболее передовых и свежих методов является использование искусственного интеллекта (ИИ) для создания поддельных голосов и видеозаписей. С помощью ИИ злоумышленники могут имитировать голос или внешность знакомых людей, чтобы убедить жертву в подлинности обращения. Примеры использования ИИ в мошенничестве: Как защититься от подобных мошенничеств: Как понять, что тебе звонит фальшивый начальник или родственник с помощью дипфек? Чтобы проверить, не используется ли дипфейк при видеозвонке, можно провести несколько проверок. Эти методы могут выявить ошибки или артефакты, которые сложнее скрыть даже с продвинутыми технологиями. Вот примеры таких проверок: Эти проверки не гарантируют абсолютного успеха, так как дипфейк-технологии постоянно совершенствуются, но они могут помочь выявить признаки искусственного видео в большинстве случаев. Вместо итога: Использование ИИ в мошеннических схемах становится

В 2024 году мошенники активно используют современные технологии для обмана граждан. Одним из наиболее передовых и свежих методов является использование искусственного интеллекта (ИИ) для создания поддельных голосов и видеозаписей. С помощью ИИ злоумышленники могут имитировать голос или внешность знакомых людей, чтобы убедить жертву в подлинности обращения.

автор: Владимир Зыков/Runet
автор: Владимир Зыков/Runet

Примеры использования ИИ в мошенничестве:

  1. Голосовые сообщения: Мошенники создают аудиосообщения, в которых голосом знакомого человека просят одолжить деньги или предоставить конфиденциальную информацию. Такие сообщения могут быть отправлены через мессенджеры или социальные сети.
    Например, В марте 2019 года управляющий директор британской энергетической компании
    получил звонок от лица, имитирующего голос его начальника из материнской компании в Германии. Злоумышленник, используя технологию дипфейка, убедил директора перевести €220 000 (около $240 000) на счет мошенников, утверждая, что это срочная оплата поставщику. Директор, не подозревая обмана, выполнил перевод, что привело к значительным финансовым потерям для компании
  2. Видеозвонки: С использованием технологий дипфейк злоумышленники проводят видеозвонки, где на экране отображается поддельное изображение знакомого человека, который просит совершить определенные действия, например, перевести деньги.
    Например, В России зафиксированы случаи использования мошенниками технологий дипфейк для обмана граждан. Один из таких инцидентов произошёл в начале 2024 года, когда злоумышленники, используя дипфейк, создали видеозвонок, в котором подделали лицо и голос знакомого человека. Во время звонка они убедили жертву перевести значительную сумму денег на указанный ими счёт, утверждая, что это срочная помощь. Жертва, не подозревая обмана, выполнила перевод, что привело к финансовым потерям.

Как защититься от подобных мошенничеств:

  • Проверка информации: При получении подозрительных сообщений или звонков от знакомых людей рекомендуется связаться с ними через альтернативные каналы связи, чтобы подтвердить подлинность обращения.
  • Бдительность: Не следует передавать личные данные или совершать финансовые операции по просьбе, полученной через мессенджеры или социальные сети, без тщательной проверки.
  • Обновление знаний: Регулярно знакомьтесь с новыми методами мошенничества и способами защиты от них, чтобы быть готовыми к возможным угрозам.
-2

Как понять, что тебе звонит фальшивый начальник или родственник с помощью дипфек?

Чтобы проверить, не используется ли дипфейк при видеозвонке, можно провести несколько проверок. Эти методы могут выявить ошибки или артефакты, которые сложнее скрыть даже с продвинутыми технологиями. Вот примеры таких проверок:

  1. Попросить сделать спонтанное движение
    Например, предложите собеседнику поднести руку к лицу и «смахнуть грязь» с брови или поправить волосы. Когда рука перекрывает лицо, алгоритмы дипфейка могут дать сбой, и вместо плавного отображения лица проявится искажение, артефакты или даже «подлинное» лицо мошенника.
  2. Изменение положения головы
    Попросите собеседника наклонить голову набок или быстро повернуться в сторону, как бы ненадолго отвлекаясь. Резкие движения или повороты головы иногда заставляют дипфейк «плыть» и дают сбои в отображении черт лица.
  3. Тест с близким расстоянием к камере
    Попросите человека поднести лицо максимально близко к камере, например, чтобы показать какой-то конкретный элемент. Это может вызвать искажения или артефакты в области глаз, носа или рта, так как дипфейк-программы сложнее обрабатывать крупные планы.
  4. Попросить произнести сложные слова или сделать паузу
    Попросите собеседника произнести необычные слова с сильной артикуляцией (например, «хризантема» или «дипфейк») или даже зевнуть. Искусственный интеллект может «замедлиться» или потерять синхрон между лицом и голосом, если в реальном времени не может обработать выражение.
  5. Изменение освещения или внезапная тень
    Попросите собеседника быстро включить или выключить свет, или даже поднести телефон к источнику света, чтобы создать резкий переход. Дипфейки часто не могут плавно адаптироваться к изменению освещения и могут вызвать эффект «маски», когда лицо выглядит ненастоящим.
  6. Отражение в зеркале или стекле
    Если в комнате есть зеркало или стекло, попросите собеседника повернуть камеру так, чтобы их лицо отразилось в нем. Дипфейки могут дать сбой, так как синхронизация отражения и основного изображения становится сложнее.

Эти проверки не гарантируют абсолютного успеха, так как дипфейк-технологии постоянно совершенствуются, но они могут помочь выявить признаки искусственного видео в большинстве случаев.

-3

Вместо итога:

Использование ИИ в мошеннических схемах становится все более распространенным, поэтому важно быть внимательными и осторожными при взаимодействии в цифровом пространстве.