Найти тему
Medef

Как работает программа замены лиц

Приложение Face Swap — это веселое развлечение, в два касания вы можете стать кем угодно: от голливудской звезды до президента. Даже Facebook, Yahoo! и Microsoft предлагают собственные программы для замены лица в один клик. Но новое ПО Deepfakes еще больше усугубляет и без того напряженную ситуацию с достоверностью и правовым статусом личности в Интернете.

В начале января пользователь Reddit/u/deepfakes выпустил программное обеспечение, с помощью которого даже непрофессионал может заменить лицо в видео. Результат кажется обманчиво реальным: новое лицо сливается с головой оригинала и образует достаточно правдоподобный гибрид. Фейк перенимает даже мимику оригинала.

Пересадка лица с препятствиями

-2

Все, что требуется, — это два видео: одно с «донором» лица, а другое с «реципиентом»; в обоих видео соответствующие лица должны быть четко видны. Замена лиц сопровождается некоторыми техническими сложностями. Программа работает только на компьютерах на базе операционной системы Windows и с видеокартой NVIDIA (наиболее поздней и мощной модели), а воспользоваться ПО и попробовать себя в пересадке лица может тот, у кого есть достаточно терпения, чтобы следовать пространным инструкциям на YouTube, имеется несколько часов времени и умение справляться с разочарованием.

И, конечно же, чаще всего такие эксперименты начинаются с порно. После того как лица известных голливудских актрис были пересажены с помощью FakeApp на головы звезд эротического жанра, это развлечение для «ботаников» стало очень популярным. Но что же станет с реальностью, если ее так легко подделать?

И тут есть о чем задуматься: уже несколько лет научно-исследовательские группы работают над программным обеспечением, которое позволит свободно изменять не только изображения и видео, но также голосовые и звуковые записи. В конце ноября компания Adobe представила свою программу Voco, с помощью которой можно переписывать, сокращать, копировать и даже дополнять новым текстом речь — и все это с сохранением оригинального голоса. Так что есть основания опасаться, что в сочетании с приложениями перестановки лиц могут быть созданы такие видео, где реальными людьми будут манипулировать словно говорящими куклами.

Фейковые новости и «альтернативные» факты подтверждают, что эти опасения стоит рассматривать как тревожный сигнал о том, что уже давно начался процесс потери достоверности информации. И можно верить прогнозу Google о том, что такое понятие, как Deepfake (образованное от Deep learning — машинное обучение с применением нейросетей и fake — подделка), находится в процессе стремительного развития.