Найти в Дзене
iPavlov.ai

iPavlov.ai: Рост популярности DeepFake: тревога или мировая трансформация?

Chapter 2.

“Фотошопить” видеоматериалы можно было и, скажем, 10 лет назад, но для этого требовались время, высококвалифицированные художники и большие деньги. Технология Deepfake меняет правила игры. С развитием этой области каждый имеет возможность создать фальшивое, но весьма убедительное видео. Теперь любой человек может создавать “новости”. Любой может распространять ложную информацию, клеветать. Иными словами, теперь благодаря новейшим технологиям каждый может поучаствовать в создании фейковой реальности.

“Ложные высказывания от имени государственных деятелей могут легко вызвать международный скандал, панику на фондовом рынке или даже войну. Угроза настолько реальна, что DARPA, (агентство обороны США, ответственное за новые военные технологии), уже создало официальную лабораторию судебной экспертизы в СМИ, которая работает над бескомпромиссным распознаванием подделок. Крупные игроки отрасли искусственного интеллекта как, например iPavlov, создают чудо-технологии, но вот вопрос, с какими помыслами будет пользоваться этим мир?”, - Лоран Акопян , к.ф-м.н., генеральный директор iPavlov, исполнительный директор НИЦ АО «Швабе» в МФТИ, директор по разработке прикладного программного обеспечения Центра Компетенций НТИ по направлению «Искусственный интеллект».

Один из самых громких скандалов в области кибербезопасности связан с созданием «голосовых клонов» общественных деятелей и неправомерного их использования. В марте 2019 года глава британской дочерней компании немецкого энергетического концерна внес почти 200 000 фунтов стерлингов на счет в венгерского банка после того, как ему позвонил мошенник с данным указанием, имитирующий голос немецкого генерального директора. Страховщики компании считают, что голос был подделкой, но четкого доказательства не имеется. Сообщается, что в махинациях использовались записанные голосовые сообщения WhatsApp.

Deep fake - позитивистский подход

Цифровые клоны в кресле ведущих новостей

Искусственный интеллект (ИИ) начал проникать в журналистику несколько лет назад благодаря появлению робо-журналистов, таких как OpenAI GPT-2. Нейросети обрели способность писать собственный новостной контент, который будет озвучен голосом диктора. В 2018 году китайское телевидение представило первого в мире цифрового диктора новостей AI. А в 2020 Reuters представили своего собственного полностью автоматизированного ведущего, чтобы показать, как ИИ можно использовать для увеличения масштаба новостного потока и усиления персонального таргета новостей.

Рис.1: Первый в мире AI-ведущий новостей от Xinhua News Agency
Рис.1: Первый в мире AI-ведущий новостей от Xinhua News Agency

Рис. 2: AI-ведущий новостей от Reuters
Рис. 2: AI-ведущий новостей от Reuters

Deepfake в кинематографе и маркетинге - поле для креатива

Уже сейчас доступно омолаживание или состаривание актеров благодаря нейронным сетям. Самым ярким примером может стать фильм Мартина Скорсезе “Ирландец “ (2019), в котором герой Роберта Де Ниро предстает в разные годы жизни: еще молодым и уже старым.

"Цифровые двойники” могут сниматься в рекламных роликах вместо самих актеров. Это открывает дороги пиар-агентствам для уникальной и необычной рекламы.

Не хотите быть в неприглядном виде в Zoom на утренней встрече? Используйте генерацию своей собственной проекции! Ваши эмоции, мимика, жесты - все сохраняется, но лицо вы можете поменять на любую свою фотографию, т.е. сделать Deep fake самого себя. То же самое касается любых мероприятий, на которых вы бы хотели сохранить приватность.

Ну и, конечно, сегодня возможно «очеловечивание» цифровых ассистентов, когда у голосовых помощников появляется свое уникальное лицо.

Как видите, Deepfake имеет огромное количество применений в b2b-отрасли, и совсем не всегда носит мошеннический характер. Для b2c-аудитории создаются развлекательные приложения, преимущественно с функцией face swap.

Рис. 3: Американский актер Аль Пачино, омоложенный в фильме "Ирландец"
Рис. 3: Американский актер Аль Пачино, омоложенный в фильме "Ирландец"

Рис. 4: DeepFake дня: Омоложенный Роберт Де Ниро в «Ирландце»
Рис. 4: DeepFake дня: Омоложенный Роберт Де Ниро в «Ирландце»

Как распознать Deepfake?

Во многих Deepfake видео, сделанных в приложениях на смартфоне, подделка заметна невооруженным взглядом. Но что делать с контентом от production-студии или свободных контент-мейкеров на YouTube, творения которых действительно неотличимы от правды?

Никогда в жизни мы бы не догадались, что этот аккаунт ведет не Том Круз, а нейросеть!

Чтобы распознать Deepfake, учёные из Университета Олбани провели эксперимент, в котором выявили, что в среднем люди моргают 17 раз в минуту. Эта цифра увеличивается до 26 раз во время разговора, и падает до 4,5 раз во время чтения. На основании этого ученые предложили свой метод распознавания фейковых видеороликов: многие из политиков читают текст своей речи, когда их снимают, и если спикер на видео не моргает вообще, легко определить, что данный материал был создан искусственным интеллектом. Также выяснилось, что нейронные сети часто упускают спонтанные и непроизвольные физиологические действия. Например, дыхание во время речи или движение глаз.

Существуют также готовые решения, позволяющие отличить правду от фейка. Например, анализируя частоту морганий, нейросеть Deepfake распознаёт поддельные видео c 99% точностью, Изучение отражения в глазах дает не такие высокие результаты: точность выявления дипфейков составила 94%. Поскольку глаза человека расположены гораздо ближе друг к другу, чем источник света, на реальной фотографии отражения в обоих глазах почти одинаковы за исключением редких случаев, например, если свет от одного из источников света попадает только на один глаз. Однако в алгоритмах для подмены или создания лиц нет физических ограничений, описывающих поведение отражений, поэтому на создаваемых ими изображениях отражения в глазах разнятся.

-6

Рис. 5: Распознавание Deepfake по отражению в глазах. На настоящих видео и фото, отражения одинаковы в обоих глазах, на созданных алгоритмами синтеза или замены лиц - различны. Источник: Shu Hu et al. / arXiv.org, 2020.

Люди уже научились отличать Deepfake с помощью алгоритмов, но каждые полгода появляется что-то новое, требующее других методов и подходов.

“Стандарты проверки Deepfake должны развиваться параллельно прогрессу фальсифицированных видео, в противном случае, однажды мы не сможем доверять видеоконтенту! На каждое действие, конечно находится противодействие. Стоит задуматься о новой индустрии “верификации контента” в эпоху расцвета таких цифровых технологий, как DeepFake. Это свободная ниша, которая может стать площадкой для следующей масштабной цифровой революции”, - Лоран Акопян.

Материал подготовлен специально для издания "Популярная механика"

Читайте подробнее о DeepFake в нашем предыдущем материале: Deepfake: секреты умной технологии

-7

iPavlov (ООО «Айпавлов») — инновационная ИИ-компания (спин-офф от МФТИ), которая является продолжением легендарного проекта «НейроИнтеллект iPavlov», реализованного в рамках НТИ, при индустриальной поддержке Сбербанка.

iPavlov - разработчик мультифункциональных платформ цифровых ассистентов, платформенных решений: “Умный город”, “Умная клиника”, “Умный бизнес”, “Умная промышленность”.

НИЦ АО "Швабе" в МФТИ- собственный R&D Центр компании iPavlov, входит в Центр компетенций НТИ по направлению “Искусственный интеллект” на базе МФТИ. Специализируется на трех основных направлениях: медицинская техника, оптоэлектроника и искусственный интеллект.