Найти тему
АО Гринатом

Дипфейк: принцип работы, опасности и меры предосторожности

Оглавление

По мере того, как искусственному интеллекту доверяют все больше работы, которую раньше выполнял человек, следить за технологиями становится не только интересно, но и необходимо для собственной безопасности. Так, благодаря развитию технологий ИИ появилось такое понятие, как дипфейк. Что это такое? Как он вредит и чем полезен? Мы спросили у специалистов по искусственному интеллекту и информационной безопасности из АО «Гринатом» и собрали ответы в этой статье.

Что такое дипфейк

Дипфейк — это метод создания контента с имитацией изображения и (или) голоса. Дипфейк использует новейшие технологии искусственного интеллекта, так что отличить подделку от настоящего видео или аудио практически невозможно.


Существуют различные виды дипфейка:

  • Замена лица. Для этого на существующее видео с одним человеком накладывается лицо другого.
  • Реконструкция. В существующем видео меняется поведение персонажа: его мимика, интонация, голос.
  • Генеративная сеть, которая меняет мимику под аудио. Она обучается работать с любым лицом и любым аудио и, как правило, не требует дообучения для работы с новым человеком.
  • Синтез предполагает создание видео с несуществующим человеком.
    Аудиоконтент тоже может быть создан по-разному: иногда редактируется уже имеющийся аудиофайл, а иногда используется запись голоса человека, на основе которой сеть учится воспроизводить любой текст. Для такого обучения требуется масштабный образец — запись должна длиться минимум несколько часов.
  • Исходными данными для создания видео могут быть: текстовое описание сцены, изображение лица, текст речи персонажа и образцы звука. Некоторые модели в качестве исходника принимают начало видео, для которого создается продолжение согласно заданному текстовому описанию. Эти методы появились сравнительно недавно, и технология еще не доведена до идеала.

Как это работает

Технология дипфейка часто построена на генеративно-состязательной сети — это способ обработки данных, при котором одна нейросеть (генеративная) создает образцы, а другая (дискриминативная) «критикует» результаты и определяет, какой образец настоящий, а какой нет. В случае когда дискриминатор правильно вычисляет подделку, генератор проигрывает. Если же генератору удается обмануть дискриминатора и выдать подделку за истину, проигрывает дискриминатор.

Таким образом обе сети обучают друг друга. Генеративная сеть учится создавать такие результаты, которые пройдут проверку дискриминативной, а дискриминативная сеть учится более достоверно обрабатывать результаты.

Нейросеть на этапе обучения обрабатывает огромные массивы данных, чтобы определить, как наиболее достоверно заменить часть изображения. Для создания видео с человеком технология объединяет его фото с разных ракурсов и с разной мимикой, анализирует их и учится определять, как этот человек будет выглядеть в той или иной ситуации.

Еще одной эффективной и популярной технологией для создания дипфейка является диффузионная модель. Диффузионные модели могут генерировать данные, аналогичные тем, на которых они обучаются. Например, если модель обучается на изображениях деревьев, она может генерировать похожие реалистичные изображения деревьев.

Этапы создания видео

Рассмотрим вариант работы «замена лица». Обычно для создания видео используется два исходника: первый — с человеком, лицо которого будет в видео; второй — «образец» для генерации по его образу. Такой способ уже не нов и позволяет создавать видео хорошего качества и поразительной реалистичности.

-2

При этом важно учитывать, что не все сети проходят повторное обучение для каждого нового видео — иногда хватает уже полученного опыта.

Качество результата зависит от производительности ПО, количества человеческого вмешательства и затраченного времени. Процесс может занимать недели и требует немалых трудозатрат, поэтому полученный продукт выходит очень реалистичным.

Спуфинг и другие опасности дипфейка

К сожалению, технологии не всегда используются с благими намерениями. Один из методов использования дипфейка во вред — дискредитация человека. Такое использование может иметь крайне пагубные последствия и привести к полному разрушению общественного облика личности.

Также распространение технологий дипфейка очень упростило создание ложных новостей. Распространение фейковой информации вводит в заблуждение множество людей и может привести к общественным беспорядкам.

Еще одна разновидность мошенничества, в котором используется дипфейк, — спуфинг. Так называется ситуация, когда преступник притворяется представителем компании и от его лица получает необходимые данные. Конечно, спуфинг существовал задолго до распространения дипфейков, в основном в виде текстового общения, но технология сделала его гораздо более убедительным — теперь мошенник может не только написать, но и прислать видео, голосовое сообщение или даже начать видеозвонок от чужого имени. Обычно спуфинг совершается в целях получения материальной прибыли и влечет материальный ущерб для компании.

Дипфейки активно применяют для вымогательства денег у людей, в том числе через фальшивые звонки и аудиосообщения. Мошенники с помощью нейросетей могут подделать голос человека — друга, коллеги, родственника — и просить от их имени перевести деньги.

Технологии дипфейка постоянно совершенствуются. Так, уже сегодня мошенники могут использовать чужую личность в целях получения доступа к банковскому счету, вывода средств и оформления фиктивных кредитов, похитить данные умершего, «оживить» его для доступа к банковским онлайн-сервисам, создать фальшивую личность, не существующую в реальности, чтобы проводить крупные финансовые операции и осуществлять сложные схемы кредитного мошенничества.

Как защитить себя?

Чтобы вы могли распознать дипфейк и обезопасить себя от мошенничества, мы собрали несколько важных правил и советов:

1. Всегда проверяйте источники. Если вы получаете видео или аудиофайлы от незнакомых людей, убедитесь, что они исходят из доверенного лица.

2. Не доверяйте слепо видео- и аудиоконтенту. Даже если человек на видео выглядит знакомо, не спешите переводить деньги или совершать какие-либо иные действия. Попробуйте связаться с этим человеком напрямую через другие каналы связи.

3. Обращайте внимание на качество присланных материалов. В дипфейках часто заметны неестественные движения губ, глаз и других частей лица. Например, несоответствие движений губ с речью. Волосы, очертания ушей и зубов часто выглядят менее четкими, размытыми или неестественно отрендеренными. Дипфейки могут иметь искажения или несоответствия в тембре или интонациях голоса.

4. Никогда не передавайте свои персональные данные (пароли, данные банковских карт) через социальные сети или ненадежные платформы.

5. Используйте двухфакторную аутентификацию для своих учетных записей. Это добавит дополнительный уровень защиты.

6. Будьте внимательны к подозрительным сообщениям. Если вам приходят неожиданные запросы на деньги или конфиденциальную информацию, всегда проверяйте их легитимность.

7. Старайтесь оценивать информацию с разных сторон и не доверять всему, что выглядит убедительно на первый взгляд.

Сейчас активно ведется разработка законодательства, регулирующего действия с дипфейком. Например, в сентябре 2024 года появился законопроект, предлагающий охранять записи голоса как интеллектуальную собственность.

Также для непосредственной борьбы с дипфейками активно разрабатывают и внедряют новые технологии распознавания искусственно созданного контента. Такие системы используют ENF (Electrical Network Frequency) — частоту электрической сети, присутствующую в любом аудио- и видеоконтенте. Эта частота возникает из-за шумов и электромагнитной индукции, создает уникальный паттерн и не поддается подделке. В видео, созданном с помощью дипфейка, ENF показывает значительные колебания.

Дипфейки представляют собой технологию, которая быстро развивается и становится все более доступной, создавая значительные риски для безопасности, конфиденциальности и общественного доверия. Возможности для использования дипфейков в мошенничестве, политических манипуляциях и киберпреступлениях делают их мощным инструментом в руках злоумышленников. Важно понимать, что каждый может стать целью такого рода атак, поэтому повышение своей цифровой грамотности, знание методов распознавания и защиты от дипфейков становится важным навыком в современном мире.