Найти тему
ЗВЕЗДА-АНАЛИТИКА

ДИПФЕЙК – ПЕРЕДОВОЙ ИНСТРУМЕНТ МАНИПУЛЯЦИОННОГО ВОЗДЕЙСТВИЯ В ПЕРИОД ГЛОБАЛЬНОЙ ПОЛИТИЧЕСКОЙ НЕСТАБИЛЬНОСТИ

Статья эксперта Сколковского института науки и технологий по вопросам международного регулирования искусственного интеллекта (ИИ) и сквозных технологий, исполнительного секретаря Комитета по вопросам ИИ при Комиссии Российской Федерации по делам ЮНЕСКО Юрия Линдре специально для «ЗВЕЗДА.АНАЛИТИКА».

Технологии по созданию синтетического аудиовизуального контента, для краткости именуемые внутри экспертного сообщества и в СМИ дипфейками, последние несколько лет переживают экспоненциальный рост. Причина проста и состоит по сути из двух взаимосвязанных факторов. Во-первых, скорость вычислений типовых видеокарт в компьютерах масс-маркета начиная с 2015 г. в среднем удваивалась каждые два года. Таким образом, уже к 2018 году ПК среднего ценового диапазона в части производительности приблизились к уровню, ранее доступному лишь профессиональным студиям по производству различного, в т.ч. сложного аудиовизуального контента. Во-вторых, стремительное расширение круга потребителей производительных и в целом недорогих ПК мультипликативно увеличило общее количество энтузиастов по всему миру, экспериментирующих с программным обеспечением для создания собственного пользовательского контента. Именно благодаря последним феномен дипфейков стал по-настоящему массовым.

Если вывести за скобки эксперименты с дипфейками в развлекательных целях (главная на сегодня сфера применения дипфейк-технологий), то второй по степени общественного и научного интереса категорией является синтез «политических дипфейков». Зачастую образы известных политиков и общественных деятелей используются в качестве универсального мерила «мастерства» отдельного автора или целой команды: чем реалистичнее подделка, тем выше «авторитет» в тематических сообществах и выше ценник на графические услуги энтузиастов. Кроме того, политический дипфейк – это еще хороший способ «выпуска пара», т.е. публичной демонстрации личного отношения создателя контента к тому или иному деятелю по аналогии с надписью на заборе.

Пример использования образа Дональда Трампа в дипфейк-ролике телеканала «РТ», созданного в развлекательных целях и для популяризации бренда канала за рубежом.
Пример использования образа Дональда Трампа в дипфейк-ролике телеканала «РТ», созданного в развлекательных целях и для популяризации бренда канала за рубежом.

На текущем этапе развития политического дипфейка в Интернет-пространстве активно обкатывается разнообразный контент с «участием» мировых лидеров и известных лиц. Используются сразу несколько передовых подходов к изготовлению синтетических образов с целью снятия общественной реакции на предмет реалистичности и доверия. К счастью, пока в провокационные политические сюжеты с техническими погрешностями верят далеко не все, поэтому на выявление, сбор, анализ и устранение повторяющихся, т.е. типовых технических изъянов в картинке и звуке, на которые реагируют эксперты и Интернет-общественность, уйдет достаточно много времени, возможно даже несколько лет.

Причина недостаточного качества синтетического контента кроется в том, что быстро сгенерированные видеообразы, как правило идущие вдогонку к актуальным информповодам, объективно уступают эталонным дипфейкам из сферы кинематографа.

Пример практически эталонного дипфейк-образа известного американского киноактера и яростного критика России Моргана Фримана, имеющего совокупную аудиторию в глобальных соцсетях свыше ста миллионов подписчиков.
Пример практически эталонного дипфейк-образа известного американского киноактера и яростного критика России Моргана Фримана, имеющего совокупную аудиторию в глобальных соцсетях свыше ста миллионов подписчиков.

По-настоящему реалистичные фейки, способные обмануть искушенного зрителя и профессионалов, подразумевают основательную проработку и весьма длительный процесс изготовления. В случае с нашумевшим в 2017 году дипфейком бывшего Президента США Барака Обамы (несколько минут его околополитических рассуждений завершались признанием о том, что представленный образ не имеет ничего общего с Обамой и «синтетик» просто дурачит зрителя) потребовалось 14 часов (!) самых разнообразных выступлений политика для его качественной имитации, включая голос и манеру говорить на камеру.

Нашумевший дипфейк Барака Обамы и сыгравший его актер Джордан Пиил синхронно произносят один и тот же текст. Своей работой создатели видео привлекают внимание к угрозам, которые несут в себе аудиовизуальные дипфейки.
Нашумевший дипфейк Барака Обамы и сыгравший его актер Джордан Пиил синхронно произносят один и тот же текст. Своей работой создатели видео привлекают внимание к угрозам, которые несут в себе аудиовизуальные дипфейки.

При этом, несмотря на несовершенство существующих методов генерации контента, постепенно формируется тенденция к увеличению числа политических аудиовизуальных подделок в целях таргетированного манипуляционного воздействия на сознание Интернет-пользователей. Цель - адаптировать дипфейк-технологии для продвижения нужных заказчикам политических, идеологических и иных установок, а также призывов к коллективным действиям через имитацию или даже присвоение авторитетных образов. В этом смысле вчерашние энтузиасты и университетские команды, набившие руку на развлекательных дипфейках, постепенно переходят на «взрослый» уровень. На бумаге их заказчиками являются дочерние компании ИТ-гигантов, финансирующие разработки по созданию уже не разовых подделок, но максимально реалистичных кукол или цифровых слепков интересующих политиков. В отличие от длительного периода изготовления по-настоящему реалистичного дипфейка под конкретную ситуацию, цифровая кукла является многоразовой, ее можно оперативно подготовить, записать и даже вывести в прямой эфир для озвучивания любого текста в практически любых декорациях.

Реальное выступление В.В.Путина «перехватывается» и заменяется на  дипфейк-трансляцию
Реальное выступление В.В.Путина «перехватывается» и заменяется на дипфейк-трансляцию
Демонстрация работы созданной в Стэндфордском университете дипфейк-модели В.В.Путина в режиме «кукловода» в прямом эфире на YouTube-канале (актер читает текст в близкой к «оригиналу» манере, а дипфейк-модель преобразовывает лицо и голос актера под заранее заготовленный шаблон)
Демонстрация работы созданной в Стэндфордском университете дипфейк-модели В.В.Путина в режиме «кукловода» в прямом эфире на YouTube-канале (актер читает текст в близкой к «оригиналу» манере, а дипфейк-модель преобразовывает лицо и голос актера под заранее заготовленный шаблон)

С учетом огромного числа политических дипфейков, одномоментно циркулирующих в Интернете (в основном довольно низкого качества), общественное доверие к резонансному контенту с участием мировых лидеров сегодня объективно находится на невысоком уровне. В определенной мере такое «недоверие по умолчанию» отодвигает день массового применения политических дипфейков для целей информпротивоборства. Однако уже сегодня известны случаи целенаправленных вбросов в информполе дипфейков в попытках сформировать у аудитории определенное мнение и побудить к коллективным действиям. Последний такой пример – трансляция телеканалом «Украина 24» видеообращения Владимира Зеленского 16 марта 2022 г. к народу и в вооруженным силам Украины с призывом сложить оружие и сдаться российской армии (на самом деле имел место перехват неизвестными хакерами Интернет-трансляции телеканала с показом синтетического видео). Дипфейк оказался не слишком удачным: россыпь заметных недочетов в видеоряде, а также «пресная» имитация голоса Зеленского позволили быстро вычислить обман. Тем не менее, все ведущие западные информагентства и СМИ на всякий случай поспешили оперативно отработать проукраинскую повестку, разобрав на атомы этот фейк и заявив, что за вбросом стояла Россия.

Примеры разбора дипфейка с Зеленским от BBC и AFP
Примеры разбора дипфейка с Зеленским от BBC и AFP

Динамика развития дипфейк-технологий в последние пару лет свидетельствует о том, к процессу подключились крупнейшие мировые ИТ-корпорации (и аффилированные с ними страны). Принимая во внимание их технологические и финансовые ресурсы, можно предположить, что все существующие сегодня ключевые изъяны технологий создания синтетических образов в скором времени будут устранены, а глобальное цифровое информпространство наводнят неотличимые от реальных видео подделки. И вряд ли новые улучшенные версии дипфейков будут создаваться исключительно в развлекательных целях.

📻Подробнее об этом в записи эфира программы «Стратегия национальной безопасности» с Анной Шафран на радио ЗВЕЗДА.

📹Видеоверсию выпуска целиком можно посмотреть здесь или здесь

📌Подписывайтесь на нас в Телеграм @zvezda_analytics

А также в: ВК, ОК, Rutube

#звездааналитика #шафран #линдре #искуственныйинтеллект #дипфейк #нейросеть #манипуляция #путин #трамп #зеленский #обама #морганфримен