События в области искусственного интеллекта движутся с поразительной скоростью - настолько, что зачастую трудно отследить. Но одна область, где прогресс так же прост, как нос на вашем искусственном лице, - это использование нейронных сетей для создания поддельных изображений. Вкратце: у нас это хорошо получается.
На изображении выше вы можете увидеть, как выглядит четырехлетний прогресс в генерации AI-изображений. Грубые черно-белые грани слева взяты с 2014 года и опубликованы как часть знакового документа, в котором представлен инструмент искусственного интеллекта, известный как генеративная сеть состязаний (GAN). Цветные грани справа взяты из статьи, опубликованной ранее в этом месяце, в которой используется тот же базовый метод, но с точки зрения качества изображения это совершенно другой мир.
Эти реалистичные лица - работа исследователей из Nvidia. В своей статье, опубликованной на прошлой неделе, они описывают изменение базовой архитектуры GAN для создания этих образов. Посмотрите на фотографии ниже. Если бы вы не знали, что они были фальшивыми, могли бы вы сказать разницу?
Что особенно интересно, эти поддельные лица также можно легко настроить. Инженеры Nvidia включили в свою работу метод, известный как передача стиля, в котором характеристики одного изображения смешиваются с другим. Вы можете узнать этот термин из различных графических фильтров, которые популярны в приложениях, таких как Prisma и Facebook в последние годы, что может сделать ваши селфи похожими на картины импрессионистов или кубистические произведения искусства.
Применение передачи стиля к генерации лица позволило исследователям Nvidia произвести индивидуальную настройку лица. В таблице ниже вы можете увидеть это в действии. Исходное изображение реального человека (верхний ряд) имеет черты лица другого человека (правая колонка), наложенные на него. Черты, такие как кожа и цвет волос, смешиваются вместе, создавая то, что кажется совершенно новым человеком в этом процессе.
Конечно, умение создавать реалистичные AI-лица вызывает тревожные вопросы. (Не в последнюю очередь, как долго, пока стоковые фотомодели перестают работать?) В течение последних нескольких лет эксперты поднимают тревогу по поводу того, как подделка искусственного интеллекта может повлиять на общество. Эти инструменты могут быть использованы для дезинформации и пропаганды и могут подорвать доверие общественности к графическим доказательствам, и эта тенденция может нанести ущерб как системе правосудия, так и политике. (К сожалению, эти вопросы не обсуждаются в документе Nvidia, и когда мы обратились к компании, она сказала, что не может говорить о работе, пока она не будет должным образом проверена коллегами).
Эти предупреждения не следует игнорировать. Как мы уже видели с использованием deepfakes для создания не-консенсуальную порнографии, всегда есть люди, которые готовы использовать эти инструменты в сомнительных способах. Но в то же время, несмотря на то, что говорят обыватели, информационный апокалипсис не совсем близок. С одной стороны, способность создавать лица получила особое внимание в сообществе AI; Вы не можете лечить любое изображение любым способом с той же точностью. Есть также серьезные ограничения, когда дело доходит до опыта и времени. Исследователи Nvidia потратили неделю на обучение своей модели на восьми графических процессорах Tesla, чтобы создать эти лица.
Есть также подсказки, которые мы можем найти, чтобы обнаружить подделку. В недавнем сообщении в блоге художник и кодер Кайл Макдональд перечислил ряд рассказов. Волосы, например, очень сложно подделать. Он часто выглядит слишком ровным, как будто он нарисован кистью, или слишком размыт, смешиваясь с чьим-то лицом. Аналогично, генераторы ИИ не совсем понимают человеческую симметрию лица. Они часто размещают уши на разных уровнях или делают глаза разных цветов. Они также не очень хороши в создании текста или чисел, которые просто выглядят как неразборчивые капли.
Если вы прочитаете начало этого поста, эти подсказки, вероятно, не будут большим утешением. В конце концов, работа Nvidia показывает, насколько быстро развивается ИИ в этой области, и скоро исследователи создадут алгоритмы, которые могут избежать этих подсказок.
К счастью, эксперты уже думают о новых способах аутентификации цифровых фотографий. Некоторые решения уже запущены, например, приложения для камер, которые помечают снимки геокодами, чтобы, например, проверить, когда и где они были сделаны. Ясно, что в течение десятилетий будет происходить битва между подделкой искусственного интеллекта и аутентификацией изображений. И на данный момент ИИ решительно выходит в лидеры.