Несколько дней назад на канале "Хроники диванной разведки" вышла статья "Пробую найти реальных двойников несуществующих людей, созданных нейросетью".
В ней рассказано о простом эксперименте:
С помощью сайта thispersondoesnotexist.com (нейросети Stylegan2) было создано пять фотографий несуществующих людей, а потом была совершена попытка найти их двойников в VK и "Одноклассниках" (тут пригодился ресурс search4face.com).
В итоге ни для одного "искусственное лица" не нашлось человека похожего на него более чем на 46%.
Нейросеть работает качественно и создает действительно уникальные изображения.
Для одного из несуществующих женских лиц search4face.com нашел весьма подозрительного двойника — пустая страница с одной фотографией, на которой есть возможные признаки того, что она является плодом работы нейросети Stylegan2:
- особый ракурс, освещение и качество фотографии;
- характерная для снимков несуществующих людей размытая зеленая листва на заднем фоне;
- размытая и искривленная часть лица второго человека.
Более глубокое изучение темы показало, что для того, чтобы выяснить настоящий ли человек на фото или созданный нейросетью, можно не гадать, а просто воспользоваться специальным веб-сервисом platform.sensity.ai/deepfake-detection.
Заходим на сайт и загружаем фотографию "подозрительной" женщины.
Ждем где-то секунд 20-30...
И опа! Мои догадки оказались верны! Это дама — несуществующий человек, созданный старой версией нейросети Stylegan2, под названием просто Stylegan.
У фотографии, созданной сайтом thispersondoesnotexist.com сегодня сервис определяет версию нейросети как Stylegan2.
У одного из несуществующих лиц из предыдущей статьи тоже нашелся подозрительный двойник с пустой страницей, одной фотографией в профиле и неестественно-странными чертами лицами.
Фото выглядит так, будто бы взяли изображение несуществующего человека и в Photoshop "нарисовали" вокруг него кафе.
Но смущала дата публикации снимка. 5 января 2019 года сайт thispersondoesnotexist.com еще не был представлен широкой публике (это случилось только в середине февраля 2019).
Как оказалось, GAN-генераторы лиц тут и, правда, ни при чем. Но с фото действительно что-то не то!
Сервис нашел на нем следы применения нейросетевой технологии face-swap (когда лицо одного человека заменяют лицом другого на фото или видео).
С помощью platform.sensity.ai/deepfake-detection можно проверять не только фотографии, но и видеоролики на предмет лиц несуществующих людей и DeepFake (подмены лиц).
Подробнее о последней технологии можно почитать в статье:
Как быстро проверить использована ли в видео технология DeepFake