Найти тему

Что за технология DeepFake?

Deepfake (дипфейк) – методика синтеза изображения, основанная на искусственном интеллекте (ИИ).

Deepfake является составным словом и происходит от deep learning (глубинное обучение) и fake (подделка).

Технологию Deepfake создал в 2014 г. студент Стэнфордского университета Ян Гудфеллоу.

Глубинное обучение – это сложный метод на базе ИИ, который использует многоуровневые алгоритмы машинного обучения для извлечения все более сложных характеристик из необработанных входных данных. При этом ИИ способен обучаться на неструктурированных данных – таких как изображения лиц. Например, ИИ может собрать данные о движениях тела.

Затем эти данные могут быть обработаны для создания дипфейк-видео при помощи так называемой генеративно-состязательной сети (Generative Adversarial Network – GAN). Это еще одна специализированная система машинного обучения. В ней задействовано две нейросети, которые состязаются друг с другом, изучая характеристики учебных наборов данных (например, фотографий лиц) и создавая новые данные на базе этих характеристик (то есть новые "фотографии").

Поскольку такая сеть постоянно сверяет создаваемые образцы с исходным учебным набором, поддельные изображения выглядят все более и более правдоподобно. Именно поэтому угроза, которую представляют дипфейки, постоянно растет. Кроме того, сети GAN могут создавать и другие поддельные данные помимо фотографий и видео. Например, дипфейк-технологии могут использоваться для имитации голоса.

Deepfake может быть использован для замены определённых элементов изображения на желаемые (нужные) образы.

Также Deepfake может быть использован для создания поддельных новостей и вредоносных обманов.

Дипфейк-видео неоднократно использовались в политических целях, а также как способ мести. Однако сейчас к этим технологиям все чаще стали прибегать для шантажа и проворачивания крупных афер.

1 сентября 2020 г. компания Microsoft анонсировала свою новую разработку – Microsoft Video Authenticator, программное обеспечение, которое позволяет определить вмешательство в видео.

На своем смартфоне, вы можете скачать программу, которая состарит вас, омолодит и даже изменит пол. Соц. сети заполонили переделанные снимки. Повальная мода на "старость" или замену пола коснулась многих звезд. Это пример безобидного использования новых технологии.

Фото с https://www.5-tv.ru/news/306975/dipfejki-cto-eto-kak-rabotaet-icem-opasno/. Михаил Галустян в старости по версии приложения FaceApp. Instagram @m_galustyan.
Фото с https://www.5-tv.ru/news/306975/dipfejki-cto-eto-kak-rabotaet-icem-opasno/. Михаил Галустян в старости по версии приложения FaceApp. Instagram @m_galustyan.

Некоторые специалисты по визуальным эффектам считают, что технология упростит создание кино. Но что тогда будет с кинематографом?

Случаи использования DeepFake.

1. Качественные дипфейки с участием знаменитостей найти несложно. Один из примеров – фейковое видео, выложенное актером Джорданом Пилом. Он записал небольшую речь голосом Барака Обамы, которая затем была совмещена с видеосъемкой реального выступления этого политика. Затем Пил продемонстрировал, как выглядят обе составляющие этого видео, и призвал своих зрителей критически относиться ко всему, что они видят.

2. Технология deepfake использовалась в музее Сальвадора Дали во Флориде в честь 115-летия известного художника была организована специальная выставка Dalí Lives ("Дали жив"). По словам кураторов проекта, на этом мероприятии "искусство встречает ИИ". Они использовали сгенерированный ИИ прототип художника, который общался с посетителями музея, рассказывал им истории о своих картинах и жизни.

3. В конце июня 2019 г. в соц. сетях обсуждали приложение, разработанное группой программистов-хулиганов. Задействованные в приложении нейросети позволяли пользователям "раздевать" девушек на фото. "Первопроходицами" невольно стали знаменитости — Галь Гадот, Ким Кардашьян, Кара Делевинь и другие. Мгновенно поднялся шум и разгорелись дискуссии об этичности разработки, после чего создатели сообщили, что удаляют приложение из магазинов и закрывают проект.

4. Сильвестра Сталлоне использовали вместо Арнольда Шварценеггера в фильме "Терминатор", а Джима Керри – вместо Джека Николсона в "Сиянии".

5. Видео с руководителем Facebook Марком Цукербергом, в котором тот якобы говорит о том, как Facebook "управляет будущим" с помощью украденных данных пользователей, появилось в Instagram. На оригинальном видео запечатлена его речь в связи со скандалом о "русском следе" в выборах президента США – для создания фейка оказалось достаточно фрагмента длиной всего в 21 секунду. Однако голос Цукерберга был сымитирован не так хорошо, как в пародии Джордана Пила на Обаму, и фальшивку было легко распознать.

6. Впрочем, даже менее качественные подделки могут вызвать живой отклик. Видео с "пьяной" Нэнси Пелоси, спикером Палаты представителей США, набрало миллионы просмотров на YouTube – а это был всего лишь фейк, сделанный с помощью замедления реального видео, чтобы создать видимость невнятной речи.

7. У генерального директора британской энергетической компании мошенники смогли выманить 220 тыс. евро с помощью дипфейковой имитации голоса руководителя головной компании, якобы запросившего срочно перевести указанную сумму. Подмена была настолько натуралистичной, что обманутый директор не стал перепроверять информацию, хотя средства переводились не в головной офис, а на сторонний счет. Только когда "босс" запросил еще один трансфер, его собеседник заподозрил неладное, но переведенные деньги уже бесследно исчезли.

8. Фейковые порноролики уже использовались с целью шантажа женщин-репортеров и журналисток, как, например, произошло в Индии с Раной Айюб, которая занималась разоблачением злоупотреблений властью. Технологии производства дипфейков дешевеют, так что можно прогнозировать рост их использования в целях шантажа и мошенничества.

9. Недавно в приложении TikTok появился аккаунт, в котором Том Круз играет в гольф, рассказывает о встрече с Михаилом Горбачевым и показывает фокусы. Видеть Круза, не выполняющего какие-нибудь сложные трюки, непривычно, но сомнений в подлинности видео не возникает. Человек, сыгравший в тиктоках Тома Круза, очень точно передал мимику, движения, голос и даже характерный смех актера. Все остальное сделала нейросеть.

10. В ролике, который показал французский теле-канал "Channel 4", "британская королева" благодарит телекомпанию за возможность говорить без купюр и то, что она на самом деле думает. Поддельная Елизавета II язвит в адрес BBC, где выходит настоящее обращение монарха к нации, перемалывает косточки членам своей семьи, премьер-министру и даже танцует на столе в стиле трендов социальной сети TikTok.

Фото с https://naked-science.ru/article/media/dipfejk-korolevy-elizavety-ii-vystupil-na-britanskom-telekanale-i-vyzval-buryu-negodovaniya.
Фото с https://naked-science.ru/article/media/dipfejk-korolevy-elizavety-ii-vystupil-na-britanskom-telekanale-i-vyzval-buryu-negodovaniya.

Видео создала оскароносная студия спецэффектов Framestore, а роль королевы сыграла актриса Дебра Стивенсон. Примечательно, что голос поддельной монаршей особы сильно отличался от реального. Возможно, авторы ролика все же решили не перегибать палку в плане реалистичности видео и аудио. Зато явно хватили лишнего во время написания текста.

По словам технического директора "Channel 4" Яна Катца, видео показали аудитории, чтобы привлечь внимание к опасностям технологии дипфейков. Он описывает ролик как мощное напоминание о том, что мы больше не можем доверять своим глазам.

Как распознать дипфейки?

Современные генераторы дипфейков моделируют двумерное лицо, а затем искажают его для встраивания в трехмерную перспективу видеоролика. По тому, куда направлен нос, легко распознать подделку.

Пока что технологии создания дипфейков еще недостаточно совершенны, и признаки подделки зачастую видны невооруженным глазом.

Обращайте внимание на следующие характерные признаки:

  • неровное движение;
  • перемены освещения в соседних кадрах;
  • различия в оттенках кожи;
  • человек на видео моргает как-то странно или не моргает вообще;
  • плохая синхронизация движения губ с речью;
  • цифровые артефакты в изображении.

Источник 1. Источник 2. Источник 3. Источник 4. Источник 5. Источник 6.