Технологии искусственного интеллекта (ИИ) развиваются со скоростью света, принося с собой как потрясающие новые возможности, так и новые вызовы.
Одной из таких угроз является растущее использование преступниками сервисов ИИ для создания поддельных аудио и видеоматериалов — deepfake, способных обмануть даже самого опытного человека.
В российском законодательстве пока нет понятия дипфейк, но это не значит, что сфера никак не регламентируется. Использование изображения гражданина, в том числе видеозаписи, без его согласия уже запрещено (ст. 152.1 ГК РФ), однако пробел в законодательстве существует в отношении голоса. В случае совершения преступления с использованием дипфейка нарушитель будет привлечен к уголовной ответственности по конкретной статье УК РФ. Например, если с помощью дипфейка совершалось мошенничество, то лицо и будет привлечено за мошенничество.
В этой статье мы рассмотрим, каким образом преступники используют технологии ИИ для создания фальшивых аудио и видеозаписей, а также расскажем о том, где и как злоумышленники собирают исходные данные своих жертв.
Мне голос был. Он звал утешно
Прежде всего, стоит отметить, что современные алгоритмы машинного обучения позволяют создавать довольно реалистичные подделки. Например, при помощи генеративно-состязательных сетей (GANs) преступники могут создавать фальшивые голоса, которые звучат так же, как настоящие, или подделывать видеоматериалы, создавая ситуации, которые никогда не происходили на самом деле.
Одним из наиболее известных примеров использования таких технологий являются deepfake с участием знаменитостей или политиков. Преступники могут создавать такие видео, чтобы распространять ложную информацию или cкомпрометировать человека, сделав порноролик с его участием.
Более того, технологии ИИ могут использоваться и для создания фальшивых аудиозаписей, например, для имитации голоса человека в телефонном разговоре или аудиосообщении. Это может быть использовано для фишинговых атак или других видов мошенничества.
Дипфеки: теперь и в России
Аналитики F.A.C.C.T. обнаружили несколько мошеннических схем, где используются аудио и видеодипфейки:
- Фейковые инвестиционные ролики в You-Tube от лица известных бизнесменов, типа Илона Маска, Джека Ма, с приглашением вкладываться в новые криптоактивы или финансовые пирамиды.
- Поддельные голосовушки с приглашением на свидание в схеме FakeDate — развернута целая индустрия по продаже поддельных аудио-и видео сообщений: часть из них записаны реальными девушками, часть сгенерирована ИИ-сервисами. Задача жуликов убедить мужчину в том, что он общается с реальнйо девушкой, которая приглашает его на свидание и предлагает купить билеты в кино, театр или концерт на... фишинговом сайте.
- Фейковые аудио и видео руководителя в схеме FakeBoss — также нужны для того, чтобы внушить жертве, что она общается в мессенджере с реальным руководителем. Как правило, переписка ведется с фейкового аккаунта. Задача злоумышленников напугать жертву сообщением об инциденте в компании и пообщаться с сотрудником Службы безопасности, который убеждает собеседника вывести деньги на безопасный счет.
- Поддельные голосовушки и видеозаписи — "кружочки" в Telegram и фейковые рассылки с просьбой одолжить денег.
Жулики могут получать образцы голоса и видео для создания своих дипфейков из различных источников:
- Открытые источники: Преступники могут использовать аудио и видеофайлы, которые публично доступны в Интернете, например, из видеоблогов, интервью, телевизионных программ и других источников.
- Социальные сети: Они могут также извлекать аудио и видеоматериалы из социальных сетей, где пользователи публикуют свои фотографии и видео, а также размещают аудиозаписи, например, в сториз или на стене профиля.
- Кража данных: Преступники могут взламывать или получать доступ к аккаунтам мессенджеров и соцсетей, где хранятся аудио и видеофайлы, таким образом получая доступ к личным или корпоративным материалам.
- Социальная инженерия: Они также могут использовать методы социальной инженерии, чтобы обмануть людей и получить доступ к их аудио и видеоматериалам, например, путем подделки личных данных или злоупотребления доверием.
После получения образцов голоса и видео преступники могут использовать различные сервисы и программные средства для генерации аудио и видеодипфейков, в том числе и вполне легальные и популярные у рекламщиков и маркетологов:
- DeepFakeApp: Это один из наиболее популярных онлайн-сервисов для создания дипфейков. Он предоставляет пользователям простой интерфейс для загрузки изображений и видеофайлов, которые могут быть использованы для создания поддельных видеороликов.
- DeepFaceLab: Это программное обеспечение с открытым исходным кодом, которое позволяет пользователям создавать высококачественные дипфейки. Оно имеет множество функций и инструментов для обработки видео и аудио, а также для обучения моделей глубокого обучения.
- FakeApp: Этот инструмент также позволяет пользователям создавать дипфейки с использованием глубокого обучения. Он обладает простым интерфейсом и широким набором функций для редактирования и синтеза видеоматериалов.
- Reface: Это популярное мобильное приложение, которое позволяет пользователям вставлять свои лица в видеоролики с участием известных личностей. Хотя оно не является полноценным генератором дипфейков, оно может быть использовано для создания впечатляющих эффектов.
Это лишь некоторые из множества сервисов и программных средств, которые могут быть использованы злоумышленниками для создания дипфейков. Мы напоминаем, что использование таких технологий с целью обмана или мошенничества является противозаконным и неприемлемым.
Принцип "нулевого доверия"
Важно отметить, что с развитием технологий ИИ и появлением всё более сложных алгоритмов создания подделок, становится всё труднее отличить настоящие материалы от поддельных. Поэтому для защиты от таких мошеннических практик необходимо применять дополнительные меры безопасности и быть внимательным к подозрительным материалам.
Вот несколько рекомендаций для пользователей, чтобы они могли защитить себя от попадания в ловушку дипфейков:
- Будьте бдительными: Внимательно относитесь к аудио и видеозаписям, особенно если они содержат неожиданные или шокирующие события. Задумайтесь, может ли содержание быть поддельным, и не принимайте его на веру без дополнительной проверки.
- Проверяйте источник: Важно проверить источник информации. Если вы получаете аудио или видео от незнакомого отправителя или через необычный канал связи, будьте особенно осторожны.
- Используйте надежные источники: Получайте информацию из проверенных источников, таких как официальные новостные сайты, заслуживающие доверия медийные организации и другие авторитетные источники.
- Проверяйте подозрительные материалы: Если у вас есть сомнения относительно подлинности аудио или видео, воспользуйтесь онлайн-инструментами для анализа, которые могут помочь определить подлинность материалов.
- Обратитесь к экспертам: Если у вас есть сомнения относительно подлинности информации, обратитесь за помощью к специалистам в области цифровой форензики или к другим экспертам, которые могут помочь провести анализ материалов.
- Обучение: Повышайте свою цифровую грамотность и узнавайте больше о технологиях дипфейков и методах их обнаружения. К примеру, дипфейк может выдать множество признаков:
📌явная граница наложения;
📌 ошибки наложения при движении головы, особенно при поворотах (лучше всего дипфейк получается на спокойном выражении лица с профилем в фас);
📌различия в цвете, освещенности и качестве картинки;
📌ошибки в мимике (отдельное внимание на моргание, движение губ);
📌 неправильная прорисовка глаз и конкретно зрачков;
📌исчезновение родинок и шрамов;
📌 кратковременное проступание элементов оригинального изображения поверх наложенного;
📌 несовпадение формы головы, прически, комплекции и голоса актера и наложенной личности;
📌 мерцание, пикселизация или замыливание видео или отдельных его элементов;
📌 общее плохое качество видео (таким образом, часто пытаются замаскировать несовершенство дипфейка).
Следуя этим рекомендациям, вы сможете уменьшить риск попадания в ловушку дипфейков и лучше защитить себя от мошенничества. Чем лучше вы разбираетесь в этом вопросе, тем меньше вероятность того, что вы станете жертвой дипфейка.