Deepfake (дипфейк) – методика синтеза изображения, основанная на искусственном интеллекте (ИИ).
Deepfake является составным словом и происходит от deep learning (глубинное обучение) и fake (подделка).
Технологию Deepfake создал в 2014 г. студент Стэнфордского университета Ян Гудфеллоу.
Глубинное обучение – это сложный метод на базе ИИ, который использует многоуровневые алгоритмы машинного обучения для извлечения все более сложных характеристик из необработанных входных данных. При этом ИИ способен обучаться на неструктурированных данных – таких как изображения лиц. Например, ИИ может собрать данные о движениях тела.
Затем эти данные могут быть обработаны для создания дипфейк-видео при помощи так называемой генеративно-состязательной сети (Generative Adversarial Network – GAN). Это еще одна специализированная система машинного обучения. В ней задействовано две нейросети, которые состязаются друг с другом, изучая характеристики учебных наборов данных (например, фотографий лиц) и создавая новые данные на базе этих характеристик (то есть новые "фотографии").
Поскольку такая сеть постоянно сверяет создаваемые образцы с исходным учебным набором, поддельные изображения выглядят все более и более правдоподобно. Именно поэтому угроза, которую представляют дипфейки, постоянно растет. Кроме того, сети GAN могут создавать и другие поддельные данные помимо фотографий и видео. Например, дипфейк-технологии могут использоваться для имитации голоса.
Deepfake может быть использован для замены определённых элементов изображения на желаемые (нужные) образы.
Также Deepfake может быть использован для создания поддельных новостей и вредоносных обманов.
Дипфейк-видео неоднократно использовались в политических целях, а также как способ мести. Однако сейчас к этим технологиям все чаще стали прибегать для шантажа и проворачивания крупных афер.
1 сентября 2020 г. компания Microsoft анонсировала свою новую разработку – Microsoft Video Authenticator, программное обеспечение, которое позволяет определить вмешательство в видео.
На своем смартфоне, вы можете скачать программу, которая состарит вас, омолодит и даже изменит пол. Соц. сети заполонили переделанные снимки. Повальная мода на "старость" или замену пола коснулась многих звезд. Это пример безобидного использования новых технологии.
Некоторые специалисты по визуальным эффектам считают, что технология упростит создание кино. Но что тогда будет с кинематографом?
Случаи использования DeepFake.
1. Качественные дипфейки с участием знаменитостей найти несложно. Один из примеров – фейковое видео, выложенное актером Джорданом Пилом. Он записал небольшую речь голосом Барака Обамы, которая затем была совмещена с видеосъемкой реального выступления этого политика. Затем Пил продемонстрировал, как выглядят обе составляющие этого видео, и призвал своих зрителей критически относиться ко всему, что они видят.
2. Технология deepfake использовалась в музее Сальвадора Дали во Флориде в честь 115-летия известного художника была организована специальная выставка Dalí Lives ("Дали жив"). По словам кураторов проекта, на этом мероприятии "искусство встречает ИИ". Они использовали сгенерированный ИИ прототип художника, который общался с посетителями музея, рассказывал им истории о своих картинах и жизни.
3. В конце июня 2019 г. в соц. сетях обсуждали приложение, разработанное группой программистов-хулиганов. Задействованные в приложении нейросети позволяли пользователям "раздевать" девушек на фото. "Первопроходицами" невольно стали знаменитости — Галь Гадот, Ким Кардашьян, Кара Делевинь и другие. Мгновенно поднялся шум и разгорелись дискуссии об этичности разработки, после чего создатели сообщили, что удаляют приложение из магазинов и закрывают проект.
4. Сильвестра Сталлоне использовали вместо Арнольда Шварценеггера в фильме "Терминатор", а Джима Керри – вместо Джека Николсона в "Сиянии".
5. Видео с руководителем Facebook Марком Цукербергом, в котором тот якобы говорит о том, как Facebook "управляет будущим" с помощью украденных данных пользователей, появилось в Instagram. На оригинальном видео запечатлена его речь в связи со скандалом о "русском следе" в выборах президента США – для создания фейка оказалось достаточно фрагмента длиной всего в 21 секунду. Однако голос Цукерберга был сымитирован не так хорошо, как в пародии Джордана Пила на Обаму, и фальшивку было легко распознать.
6. Впрочем, даже менее качественные подделки могут вызвать живой отклик. Видео с "пьяной" Нэнси Пелоси, спикером Палаты представителей США, набрало миллионы просмотров на YouTube – а это был всего лишь фейк, сделанный с помощью замедления реального видео, чтобы создать видимость невнятной речи.
7. У генерального директора британской энергетической компании мошенники смогли выманить 220 тыс. евро с помощью дипфейковой имитации голоса руководителя головной компании, якобы запросившего срочно перевести указанную сумму. Подмена была настолько натуралистичной, что обманутый директор не стал перепроверять информацию, хотя средства переводились не в головной офис, а на сторонний счет. Только когда "босс" запросил еще один трансфер, его собеседник заподозрил неладное, но переведенные деньги уже бесследно исчезли.
8. Фейковые порноролики уже использовались с целью шантажа женщин-репортеров и журналисток, как, например, произошло в Индии с Раной Айюб, которая занималась разоблачением злоупотреблений властью. Технологии производства дипфейков дешевеют, так что можно прогнозировать рост их использования в целях шантажа и мошенничества.
9. Недавно в приложении TikTok появился аккаунт, в котором Том Круз играет в гольф, рассказывает о встрече с Михаилом Горбачевым и показывает фокусы. Видеть Круза, не выполняющего какие-нибудь сложные трюки, непривычно, но сомнений в подлинности видео не возникает. Человек, сыгравший в тиктоках Тома Круза, очень точно передал мимику, движения, голос и даже характерный смех актера. Все остальное сделала нейросеть.
10. В ролике, который показал французский теле-канал "Channel 4", "британская королева" благодарит телекомпанию за возможность говорить без купюр и то, что она на самом деле думает. Поддельная Елизавета II язвит в адрес BBC, где выходит настоящее обращение монарха к нации, перемалывает косточки членам своей семьи, премьер-министру и даже танцует на столе в стиле трендов социальной сети TikTok.
Видео создала оскароносная студия спецэффектов Framestore, а роль королевы сыграла актриса Дебра Стивенсон. Примечательно, что голос поддельной монаршей особы сильно отличался от реального. Возможно, авторы ролика все же решили не перегибать палку в плане реалистичности видео и аудио. Зато явно хватили лишнего во время написания текста.
По словам технического директора "Channel 4" Яна Катца, видео показали аудитории, чтобы привлечь внимание к опасностям технологии дипфейков. Он описывает ролик как мощное напоминание о том, что мы больше не можем доверять своим глазам.
Как распознать дипфейки?
Современные генераторы дипфейков моделируют двумерное лицо, а затем искажают его для встраивания в трехмерную перспективу видеоролика. По тому, куда направлен нос, легко распознать подделку.
Пока что технологии создания дипфейков еще недостаточно совершенны, и признаки подделки зачастую видны невооруженным глазом.
Обращайте внимание на следующие характерные признаки:
- неровное движение;
- перемены освещения в соседних кадрах;
- различия в оттенках кожи;
- человек на видео моргает как-то странно или не моргает вообще;
- плохая синхронизация движения губ с речью;
- цифровые артефакты в изображении.
Источник 1. Источник 2. Источник 3. Источник 4. Источник 5. Источник 6.