Добавить в корзинуПозвонить
Найти в Дзене

Дипфейки: кому и зачем они нужны

Дипфейк (deepfake) – производная от «глубокого обучения» и «подделки». Штука, про которую сегодня большинство говорит с опаской. Технология создавалась с огромным позитивным потенциалом, но используется и во вред. Что это и как создается дипфейк? Давайте разбираться. Дипфейки используют технологии искусственного интеллекта для синтеза изображений, в результате чего один персонаж как бы накладывается на другого и получается «комбо». К примеру, Терминатором может стать ваш сосед. Недавно разработчики из Samsung и Сколково представили алгоритм на основе BigGAN, который позволил «оживить» Мону Лизу, то есть для (относительно) хорошего результата нейросети достаточно одного кадра. Чаще всего для создания дипфейков используют так называемые генеративно-состязательные сети (generative adversarial network, или GAN). Алгоритм GAN состоит из двух нейронных сетей, как бы соревнующихся друг с другом. На этапе подготовки обе сети обучаются на реальных изображениях. После этого начинается состязат
Оглавление

Дипфейк (deepfake) – производная от «глубокого обучения» и «подделки». Штука, про которую сегодня большинство говорит с опаской.

Технология создавалась с огромным позитивным потенциалом, но используется и во вред.

Что это и как создается дипфейк?

Давайте разбираться.

Дипфейки используют технологии искусственного интеллекта для синтеза изображений, в результате чего один персонаж как бы накладывается на другого и получается «комбо». К примеру, Терминатором может стать ваш сосед.

Недавно разработчики из Samsung и Сколково представили алгоритм на основе BigGAN, который позволил «оживить» Мону Лизу, то есть для (относительно) хорошего результата нейросети достаточно одного кадра.

-2

Чаще всего для создания дипфейков используют так называемые генеративно-состязательные сети (generative adversarial network, или GAN). Алгоритм GAN состоит из двух нейронных сетей, как бы соревнующихся друг с другом. На этапе подготовки обе сети обучаются на реальных изображениях. После этого начинается состязательная часть: одна сеть генерирует картинки (она называется генеративной), а другая пытается определить, подлинные они или нет (эта сеть называется дискриминативной).

После этого обе сети учатся на полученных результатах и с каждым циклом все лучше справляются со своими задачами.

Чем опасно?

С распространением deepfake возникла опасность дискредитации любого человека, запись голоса или фото которого есть в сети. Эта технология позволяет легко манипулировать аудио- и видеоконтентом, а по мере того, как она развивается, разобраться, где правда, а где фейк – становится всё сложнее. Первыми жертвами уже стали известные люди, актеры и политики.

ИТ-гиганты разрабатывают «анти-дипфейки»: тренируют алгоритмы, которые смогли бы качественно определять видео-подделки. Минувшей осенью Facebook организовал Deepfake Detection Challenge – конкурс на лучшую программу по распознаванию дипфейков. Призовой фонд – $10 млн, результаты уже подводятся.

Чем хороша?

Год назад NVIDIA представила нейросеть, которая может превращать скетчи в реальные изображения. Технологию назвали GauGAN в честь Поля Гогена. Такую штуку можно использовать в архитектуре, дизайне, создании игр, да где угодно.

Технологию, которая лежит в основе дипфейков, можно использовать и в киноиндустрии, рекламе или при реконструкции исторических событий. Например, с её помощью была сделана социальная реклама, в которой Дэвит Бэкхем рассказывает об опасности малярии на 9и языках.

Музей Сальвадора Дали во Флориде «оживил» художника с помощью всё той же технологии. В результате зрители могли пообщаться с Дали, послушать его истории и даже получить совместное селфи. Для этого потребовалось 6000 фотографий Дали, 1000 часов машинного обучения и 145 видео с актером похожих пропорций, а ещё горы интервью и писем художника, чтобы воспроизвести голос, акцент и манеру речи.

-3

С дипфейками всё почти так же сложно, как с клонированием: общественность уже настроена негативно, огромные силы и средства тратятся на борьбу и запрет. При этом, если получится минимизировать «фейковую» составляющую и ввести технологию в законодательное поле, она даст огромные возможности для использования во благо человека.

Как не стать жертвой обмана?

Один из способов распознания deepfake предложили учёные из Университета штата Нью-Йорк в Олбани. Они провели исследование, в результате которого выявили, что люди в спокойном состояние моргают в среднем 15-17 раз в минуту. Частота моргания увеличивается во время разговора, и падает во время чтения.

Для генерации более достоверных результатов, алгоритмы выявления подделок должны учитывать множество различных параметров, в том числе физиологические особенности человека. Это потребует усложнения систем производства качественных deepfake.

Со временем, алгоритмы повысят качество генерируемых подделок и решения по их выявлению. Рано или поздно выявление отклонения мельчайших деталей станет нормой для распознавания сгенерированных видеороликов. Уже сейчас алгоритмы могут анализировать движение глаз, изменение размера зрачка или частоту дыхания и сердцебиения.

А вы уже встречали дипфейки в интернете?