Найти в Дзене
ЗВЕЗДА-АНАЛИТИКА

ДИПФЕЙК-ТЕХНОЛОГИИ. БУДУЩЕЕ УЖЕ СЕГОДНЯ

Статья эксперта Сколковского института науки и технологий по вопросам международного регулирования искусственного интеллекта (ИИ) и сквозных технологий, исполнительного секретаря Комитета по вопросам ИИ при Комиссии Российской Федерации по делам ЮНЕСКО Юрия Линдре специально для «ЗВЕЗДА.АНАЛИТИКА».

В последние годы тематика развития и применения дипфейк-технологий плотно вошла в дискурс не только профильных экспертов и программистов, но также стала важной частью цифровой жизни современного общества.

Изначальная идея студента Стэнфордского университета Й.Гудфеллоу - автора современных методов синтезирования искусственных образов на основе существующих шаблонов - оказалась настолько популярной, что к настоящему моменту практически любая сфера цифровой жизни человека испытывает на себе влияние его изобретения. Современный дипфейк (аудиовизуальный или графический контент, как правило, имитирующий человека, в т.ч. реально существующего) представляет собой результат состязательной работы нейросетей. Одна из них изучает шаблон или образ, который нужно повторить, а другая пытается ее обмануть, синтезируя многочисленные подражания до тех пор, пока первая нейросеть не сочтет подделку отвечающей всем ключевым параметрам оригинала.

Наиболее активное и известное буквально всем внедрение дипфейк-технологий наблюдается в массовой культуре, например, кинематографе. Популярная во всем мире вселенная «Звездных войн» стала одной из первых кинофраншиз, примеривших на себя синтетические видео образы. Так, вышедший в 2016 г. фильм «Изгой один», предшествующий событиям самого первого эпизода саги 1977 года выпуска, содержал сцену с одним из главных персонажей вселенной – принцессой Леей. К моменту выхода «Изгоя» исполнительница роли Леи актриса Кэрри Фишер умерла в возрасте 60-и лет, поэтому для воссоздания образа молодой и задорной предводительницы сопротивления силам галактической Империи была применена дипфейк-технология. Новый подход без использования дублеров, сложного грима и спецэффектов произвел огромное впечатление на армию поклонников «Звездных войн» и кинокритиков по всему миру.

Слева - оригинальный кадр из фильма 1977 года «Новая надежда» и дублер Кэрри Фишер

Справа – дипфейк-образ принцессы Леи из фильма «Изгой один» 2016 года

В последние пару лет дипфейк-технологии активно выходят за рамки сегмента массовой культуры и осваивают новые для себя сферы применения в общественно-социальных процессах. Одним из таких резонансных событий стал запуск в 2021 году проекта «Deep Nostalgia» в рамках популярного цифрового сервиса по воссоздании родословной и исследованиям ДНК человека «My Heritage». Лежащие в основе проекта алгоритмы искусственного интеллекта изучают найденные в архивах или загруженные пользователями фото своих родственников для создания анимированной модели умерших людей[1]. Итоговый результат во многом перекликается с «живыми» портретами волшебников из серии детских фильмов о Гарри Поттере, которыми были увешаны помещения замка Хогвардс. Всего лишь за первые 18 дней работы пользователями сервиса «My Heritage» было анимировано свыше 50 млн фотографий!

-2
-3

«Живой портрет» из киносаги о Гарри Поттере и результаты работы проекта «Deep Nostalgia»

Естественно, многие пользователи помимо «воскрешения» своих родственников решили также поиграться с оживлением других людей, в частности известных политиков, ученых, артистов и государственных деятелей. В связи с недостатком регуляторной практики феномена дипфейков во всем мире, встал вопрос о правах на цифровой слепок человека и этичности подобных манипуляций: кто и на каких условиях может эксплуатировать образ умерших людей, учитывая, что такое право никому и никогда не выдавалось по причине новизны дипфейк-технологий.

Пока многочисленные правовые лакуны позволяют беспрепятственно создавать дипфейки на основе реально существующих или ранее живших людей, их массовое применение в сфере образования и культуры являются лишь вопросом времени. Интерактивные музеи, выставки и различные шоу с «участием» великих людей прошлого уже сегодня постепенно реализуются не только на просторах Интернета, но и «вживую». Так, в специально построенном концертном зале «Abba Arena» в Лондоне, цифровые аватары группы «ABBA» периода расцвета популярности шведской «четверки» в середине 1970-х гг., исполняют свои хиты для старого и нового поколения поклонников. Теперь воочию увидеть кумиров молодыми можно и без машины времени.

-4

Дипфейк-концерт группы ABBA в Лондоне

Однако, как показывает практика, сегодня дипфейк-технологии активно используются и для других целей: синтетические образы с известными людьми служат целям шантажа и дискредитации, а аудиодипфейки стали эффективным оружием мошенников. Подпортить имидж любой известной личности можно простым созданием видео-дипфейка, в котором главное действующее лицо будет представлено в неподобающем, общественно порицаемом виде. Хороший способ сведения личных счетов. Кроме того, набирает обороты практика несанкционированного использования популярных образов для продвижения в массы нужных идеологических зарядов, установок или призывов к определенным действиям. Политтехнологии любят инновационные нестандартные подходы, когда коллективный иммунитет постепенно перестает реагировать на привычные способы информационного воздействия, т.е. пропаганды. Одновременно с этим мошенники создают аудио и видео-дипфейки для вовлечения рядовых граждан в сомнительные коммерческие схемы с очевидной целью завладеть их денежными средствами. Все мы легко доверяемся знакомым образам, например полюбившимся актерам, а также близким людям. Как же не помочь попавшему в беду родственнику, если он просит денег?

-5

В YouTube достаточно роликов, раскрывающих принципы создания дипфейков, включая разбор резонансного контента с «участием» мировых лидеров

Главная проблема дипфейков даже не в том, что они действительно реалистичны и в них охотно верят, а в том, что их легко и быстро создавать. Порог входа в технологию стремительно снижается. Даже старшеклассники без глубоких познаний в сфере компьютерного и программного моделирования способны быстро освоить бесплатные общедоступные наборы для создания собственных дипфейков.

Таким образом, результаты от массового внедрения дипфейк-технологий в общественно-социальные процессы напрямую зависят от изначального сценария, под который они развиваются. Любая технология, и дипфейки здесь не исключение, не может быть плохой или хорошей. Все зависит от целей и задач применения, а также от регуляторных рамок. Что с первым пунктом, что со вторым пока существуют серьезные проблемы. Слишком много заинтересованных акторов с различными, порой полярными интересами. Нет сомнений, что рано или поздно дипфейки обуздают и поставят под контроль. Но до тех пор, нам, рядовым пользователям Интернета и цифровых сервисов, следует развивать собственную цифровую грамотность. Только так можно успешно избежать участи тех, кто неосознанно пополнил стройные ряды объектов для манипуляции со стороны создателей деструктивного дипфейк-контента.

Подробнее об этом в записи эфира программы «Стратегия национальной безопасности» с Анной Шафран на радио ЗВЕЗДА.

📹Видеоверсию выпуска целиком можно посмотреть здесь или здесь

📌Подписывайтесь на нас в Телеграм @zvezda_analytics

А также в: ВК, ОК, Rutube

#звездааналитика #шафран #линдре #искуственныйинтеллект #дипфейк #нейросеть #манипуляция #пелоси #твиттер #twitter #abba # кэррифишер #звездныевойны #гаррипоттер