В прошлом месяце появился сайт ThisPersonDoesNotExist.com, использующий ИИ для визуальной генерации потрясающе реалистичных лиц людей, которые не существуют в реальном мире. А совсем недавно появилось продолжение: сайт WhichFaceIsReal.com дает возможность проверить свою способность различать лица реальных людей и лица, созданные ИИ. Просто зайдите на сайт и попробуйте угадать, какие из представленных образов принадлежат реальным людям.
Тем не менее, исследователи, сделавшие сайт, руководствуются благой целью. По их мнению, резкое улучшение возможностей для подделки цифровых продуктов с помощью ИИ открывает простор для чудовищного манипулирования общественным мнением в том случае, если общество не осведомлено о ее существовании.
Оба сайта используют метод машинного обучения известный как генеративно-состязательная сеть (GAN, generative adversarial network), чтобы подделывать лица. Эти сети обрабатывают огромное количество данных (в данном случае - портретов реальных людей), изучая их особенности и затем пытаясь повторить то, что было ими воспринято.
Причина того, что GAN столь эффективны в имитации визуальных образов в том, что они как бы проверяют сами себя. Одна часть сети создает лица, а другая часть сравнивает созданные объекты с огромным банком данных, которые пропускаются через сеть. Если созданный визуальный образ имеет отличия от того, как он мог бы выглядеть в реальности, проверяющая сеть отправляет его обратно генерирующей сети на доработку. И так происходит до тех пор, пока не будет достигнут максимальное соответствие компьютерного образа естественным визуальным законам. Представьте себе очень строго учителя изобразительного искусства, который не отпустит вас с урока, пока вы не нарисуете максимально похоже на образ в реальном мире.
Эти технологии уже могут использоваться создавать аудио и видео так же, как статичные картинки, и они постоянно совершенствуются. С помощью такого видео можно, например, превратить человека в великого танцора или наоборот очернить публичную личность до конца карьеры.
Одним из деструктивных способов использования таких лиц может быть распространение дезинформации после террористической атаки. Например, ИИ можно использовать для создания образа виновника теракта, отрисовав ему несуществующую в реальности внешность. Далее, такое фото можно распространить по соцсетям, тем самым сделав так, чтобы миллионы людей поверили в непричастность реального человека.
В таких случаях журналисты стараются проверить источник происхожения картинки, используя, например, такой инструмент как Reverse Image search от Google. Но это не сработает в случае с имитацией от ИИ. Если в случае с дезинформацией вбросить фото реально существующего человека в роли террориста, это выяснится очень быстро. Но что если использовать фотореалистичный образ несуществующего человека? Можно вообразить, насколько тяжело будет это идентифицировать.
Пока эта технология только начинает набирать силу, и еще есть возможность отличить реального человека от подделки, просто внимательно и вдумчиво присмотревшись. На текущей стадии развития технологии в образах еще можно обнаружить ряд изъянов - таких как неровные зубы, нереалистично выглядящие волосы и уши.
Но результаты работы GAN обязательно будут улучшаться. В ближайшие три года эти фейки станут неотличимыми. Смысл, который пытаются донести ученые, создав этот сайт - не в том, чтобы люди перестали верить всему, что видят. А в том, чтобы они просто перестали быть слишком доверчивыми.