Найти в Дзене
IT Гид

Новая программа создает ужасно реалистичные поддельные ролики

Новая компьютерная программа "Подражатель" может манипулировать видео, так что человек на экране повторяет движения и выражения кого-то в другом видео. В отличие от других программ для фальсификации фильмов, эта программа может куда больше чем просто изменение выражения лица. Алгоритм, который был представлен 16 августа на собрании SIGGRAPH 2018 года в Ванкувере, также улучшает местоположение головы и туловища, движения глаз и детали фона, чтобы создать более реалистичные подделки.

Эти видеофайлы «удивительно реалистичны», - говорит Адам Финкельштейн, компьютерный ученый из Принстонского университета, который оценивал работу. Он говорит, что эта система может помочь создать дублированные фильмы, в которых движения губ актеров совпадают с озвучкой, или даже фильмы, в которых звезды мертвых актеров реанимируются через старые кадры. Но предоставление интернет-пользователям возможности создавать ультрареалистичные фальшивые видеоролики общественных деятелей также может поднять поддельные новости на новый уровень, например как в фильме "Эквилибриум".

Алгоритм начинается с сканирования двух видео по кадру, после чего отслеживает 66 лицевых «ориентиров» - точки вдоль глаз, носа и рта - для отображения эмоций человека, выражения лица, наклона головы и прямой видимости.

Для примера в ролике использовался бывший президент США Барак Обама и президент России Владимир Путин.

Программе была поставлена задача сделать так, чтобы Путин подражал поведению Обамы, программа искажает образ Путина, чтобы принять позу Обамы, выражение лица и линию глаз в каждом кадре. Она сама может настраивать тени, менять волосы Путина или регулировать высоту его плеч, чтобы соответствовать его новой позе головы. Результатом является видеоролик о том, что Путин делает ужасно точное подражание мимики и движений Обамы.

"Подражатель" анализирует появление кого-то в одном видео и передает выражение лица, положение головы и линию взгляда на человека в другое видео. Это может генерировать кадры второго человека и говорить то, чего они никогда не делали.

-2

Компьютерный ученый Кристиан Теобальт из Института математики им. Макса Планка в Саарбрюккене (Германия) и его коллеги протестировали свою программу на 135 добровольцах, которые смотрели пять секунд каждый клип реальных и поддельных видеороликов и сообщили, считают ли они, что каждый клип оригинальным.

Поддельные ролики обманули, в среднем, 50 процентов зрителей. Но люди, возможно, более критично относились к материалам, так как знали, что проверяют видео на подлинность, возможно, если бы они столкнулись с роликами в интернете, то не не заметили подделку. Даже когда участники исследования наблюдали за подлинными клипами, 20 процентов, в среднем, по-прежнему считали, что клипы не настоящие.

У нового программного обеспечения все еще есть некоторые ограничения: программа может только возиться с видеороликами, снятыми неподвижной камерой, и на статичном фоне. Алгоритм не способен пока что слишком сильно сдвигать положение тела и головы.

То есть клип на котором Путин, говорит прямо в камеру, не может быть отредактирован так, чтобы заставить его развернуться, потому что программное обеспечение не будет знать, как выглядит задняя часть головы Путина.

Тем не менее, легко представить, как этот вид цифровой куколки можно использовать для распространения потенциально опасной дезинформации.

«Изучение способов этих манипуляций - это еще один шаг к пониманию того, как их можно обнаружить для выявления подлинности записей», - говорит один из создателей программы

Подписывайся на канал и получай самые свежие новости из мира it технологий