Найти в Дзене

ДИПФЕЙК ОБЫКНОВЕННЫЙ. БУДУЩЕЕ УЖЕ ЗДЕСЬ

В последние годы огромный спектр вопросов развития и применения дипфейк-технологий плотно вошел в дискурс не только профильных экспертов и программистов, но также тема стала важной частью цифровой жизни современного общества.

Изначальная идея студента Стэнфордского университета Й.Гудфеллоу - автора современных методов синтезирования искусственных образов на основе существующих шаблонов - оказалась настолько популярной, что к настоящему моменту практически любая сфера цифровой жизни человека испытывает на себе влияние его изобретения (более подробно об истории появления дипфейка здесь: https://dzen.ru/a/ZmIJcVrmZW5oC_Az). Современный дипфейк (аудиовизуальный или графический контент, как правило, имитирующий человека, в т.ч. реально существующего) представляет собой результат состязательной работы нейросетей. Одна из них изучает шаблон или образ, который нужно повторить, а другая пытается её обмануть, синтезируя многочисленные подражания до тех пор, пока первая нейросеть не сочтет подделку отвечающей всем ключевым параметрам оригинала.

Наиболее активное и известное буквально всем внедрение дипфейк-технологий наблюдается в массовой культуре, например, кинематографе. Популярная во всём мире вселенная «Звездных войн» стала одной из первых кинофраншиз, примеривших на себя синтетические видео образы. Так, вышедший в 2016 г. фильм «Изгой один», предшествующий событиям самого первого эпизода саги 1977 года выпуска, содержал сцену с одним из главных персонажей вселенной – принцессой Леей. К моменту выхода «Изгоя» исполнительнице роли Леи актрисе Кэрри Фишер было уже 60-и лет (умерла сразу после выхода фильма на экраны в декабре 2016 г.), поэтому для воссоздания образа молодой и задорной предводительницы сопротивления силам галактической Империи была применена дипфейк-технология. Новый подход без использования дублёров, сложного грима и спецэффектов произвел огромное впечатление на армию поклонников «Звездных войн» и кинокритиков по всему миру.

В последние пару лет дипфейк-технологии активно выходят за рамки сегмента массовой культуры и осваивают новые для себя сферы применения в общественно-социальных процессах. Одним из таких резонансных событий стал запуск в 2021 году проекта «Deep Nostalgia» в рамках популярного цифрового сервиса по воссоздании родословной и исследованиям ДНК человека «My Heritage». Лежащие в основе проекта алгоритмы искусственного интеллекта изучают найденные в архивах или загруженные пользователями фото своих родственников для создания анимированной модели умерших людей. Итоговый результат во многом перекликается с «живыми» портретами волшебников из серии детских фильмов о Гарри Поттере, которыми были увешаны помещения замка Хогвардс. Всего лишь за первые 18 дней работы пользователями сервиса «My Heritage» было анимировано свыше 50 млн фотографий!

Естественно, многие пользователи помимо «воскрешения» своих родственников решили также поиграться с оживлением других людей, в частности известных политиков, учёных, артистов и государственных деятелей. В связи с недостатком регуляторной практики феномена дипфейков во всем мире, встал вопрос о правах на цифровой слепок человека и этичности подобных манипуляций: кто и на каких условиях может эксплуатировать образ умерших людей, учитывая, что такое право никому и никогда не выдавалось по причине новизны дипфейк-технологий.

Анимированная "Джоконда" кисти Леонардо да Винчи в проекте «Deep Nostalgia»
Анимированная "Джоконда" кисти Леонардо да Винчи в проекте «Deep Nostalgia»

Пока многочисленные правовые лакуны позволяют относительно беспрепятственно создавать дипфейки на основе реально существующих или ранее живших людей, их массовое применение в сфере образования и культуры являются лишь вопросом времени. Интерактивные музеи, выставки и различные шоу с «участием» великих людей прошлого уже сегодня постепенно реализуются не только на просторах Интернета, но и «вживую». Так, в специально построенном концертном зале «Abba Arena» в Лондоне, цифровые аватары группы «ABBA» периода расцвета популярности шведской «четверки» в середине 1970-х гг., исполняют свои хиты для старого и нового поколения поклонников. Теперь воочию увидеть кумиров молодыми можно и без машины времени.

Однако, как показывает практика, сегодня дипфейк-технологии активно используются и для других целей: синтетические образы с известными людьми служат целям шантажа и дискредитации, а аудиодипфейки стали эффективным оружием мошенников. Подпортить имидж любой известной личности можно простым созданием видео-дипфейка, в котором главное действующее лицо будет представлено в неподобающем, общественно порицаемом виде. Хороший способ сведения личных счетов. Кроме того, набирает обороты практика несанкционированного использования популярных образов для продвижения в массы нужных идеологических зарядов, установок или призывов к определенным действиям. Политтехнологии любят инновационные нестандартные подходы, когда коллективный иммунитет постепенно перестает реагировать на привычные способы информационного воздействия, т.е. пропаганды. Одновременно с этим мошенники создают аудио и видео-дипфейки для вовлечения рядовых граждан в сомнительные коммерческие схемы с очевидной целью завладеть их денежными средствами. Все мы легко доверяемся знакомым образам, например полюбившимся актёрам, а также близким людям. Как же не помочь попавшему в беду родственнику, если он просит денег?

В YouTubeдостаточно роликов, раскрывающих принципы создания дипфейков, включая разбор резонансного контента с «участием» мировых лидеров.
В YouTubeдостаточно роликов, раскрывающих принципы создания дипфейков, включая разбор резонансного контента с «участием» мировых лидеров.

Главная проблема дипфейков даже не в том, что они действительно реалистичны и в них охотно верят, а в том, что их легко и быстро создавать. Порог входа в технологию стремительно снижается. Даже старшеклассники без глубоких познаний в сфере компьютерного и программного моделирования способны быстро освоить бесплатные общедоступные наборы для создания собственных дипфейков.

Таким образом, результаты от массового внедрения дипфейк-технологий в общественно-социальные процессы напрямую зависят от изначального сценария, под который они развиваются. Любая технология, и дипфейки здесь не исключение, не может быть плохой или хорошей. Все зависит от целей и задач применения, а также от регуляторных рамок. Что с первым пунктом, что со вторым пока существуют серьезные проблемы. Слишком много заинтересованных акторов с различными, порой полярными интересами. Нет сомнений, что рано или поздно дипфейки обуздают и поставят под контроль. В Китае, например, с 2023 года действует закон, обязывающий цифровые платформы и креаторов контента маркировать все свои произведения соответствующими образом, чтобы не вводить в заблуждение пользователей, иначе большие штрафы с ненулевым риском попасть под уголовное преследование. Но это там. А в России рядовым пользователям Интернета и цифровых сервисов следует развивать собственную цифровую грамотность. Только так можно успешно избежать участи тех, кто неосознанно пополнил стройные ряды объектов для манипуляции со стороны создателей деструктивного дипфейк-контента.

Июнь 2024

Подписывайтесь:
https://t.me/y_lindre (Телеграм)
https://dzen.ru/lindre (Дзен)

#будущее #ии #технологии #интернет #общество #deepfake #дипфейк #линдре #цифровизация #сша #россия #манипуляции #искусственныйинтеллект #нейросети #звездныевойны #образование #развлечения #сознание #регулирование

Ранняя версия моей статьи была написана для канала "Звезда.Аналитика" и размещена здесь:
https://dzen.ru/a/Y-UOqothnyuo-Swq

Юмор
2,91 млн интересуются