Найти тему
Новости технологий

О технологии Deepfake, стоящей за поддельными изображениями Тейлор Свифт

Оглавление
Тэйлор Свифт Фотограф: Мэтт Винкельмейер/Getty Images
Тэйлор Свифт Фотограф: Мэтт Винкельмейер/Getty Images

Мир наводнен дипфейками — видео, аудио или изображениями, которые заставляют людей делать или говорить то, чего они не делали, или находиться там, где они не были. Многие из них созданы для того, чтобы придать достоверность лжи и нанести ущерб репутации политиков и других людей в глазах общественности. Но большинство дипфейков — это откровенные видео и фотографии, созданные путем сопоставления лица знаменитости с телом другого человека. Именно это произошло в конце января, когда в социальных сетях распространились фальшивые откровенные изображения поп-звезды Тейлор Свифт . Теперь, когда искусственный интеллект позволяет практически каждому создавать реалистичные изображения и звуки несколькими нажатиями на клавиатуру, становится все труднее определить, реально ли то, что вы видите и слышите в Интернете.

1. Что случилось с Тейлор Свифт?

Фальшивые изображения Тейлор Свифт были широко распространены в социальных сетях, вызвав гнев легионов ее поклонников. Многие из них появились на сайте X, ранее известном как Twitter, где заявили, что работают над удалением «всех идентифицированных изображений» и примут «соответствующие меры» против тех, кто их разместил. По данным Verge, один пост оставался в сети около 17 часов и собрал более 45 миллионов просмотров, что является признаком того, что эти изображения могут стать вирусными задолго до того, как будут приняты меры по их прекращению. Позже X заблокировал контент о Swift, вернув сообщение: «Что-то пошло не так. Попробуйте перезагрузить» в ответ на поиск по ее имени. Инцидент с Тейлор Свифт вызвал обеспокоенность со стороны белого дома, который заявил, что конгрессу следует рассмотреть законопроект, направленный на борьбу с фальшивыми и оскорбительными изображениями, которые распространяются в Интернете.

2. Где еще в новостях появлялись дипфейки?

Ранее в январе Сочитль Гомес, 17-летняя актриса из сериала Marvel, рассказала о том, что обнаружила в социальных сетях откровенно сексуальные фейки с ее лицом и не смогла удалить материал, сообщает NBC News. Дипфейки также появляются на президентских выборах в США в 2024 году. Жители Нью-Гэмпшира перед президентскими праймериз штата получили звонок от робота , который звучал так, словно президент Джо Байден призывал их остаться дома и «приберечь свой голос для ноябрьских выборов». Голос даже произнес одну из фирменных фраз Байдена: «Какая чушь».

3. Как создаются дипфейковые видео?

Они часто создаются с использованием алгоритма искусственного интеллекта, который обучен распознавать закономерности в реальных видеозаписях конкретного человека — процесс, известный как глубокое обучение. Тогда можно будет заменить элемент одного видео, например лицо человека, на другой фрагмент контента, при этом он не будет выглядеть как грубый монтаж. Манипуляции наиболее вводят в заблуждение, когда используются с технологией клонирования голоса, которая разбивает аудиоклип, где кто-то говорит, на полусложные фрагменты, которые можно снова собрать в новые слова, которые кажутся произнесенными человеком в исходной записи.

4. Как появилась технология дипфейков?

Первоначально эта технология была прерогативой ученых и исследователей. Однако в 2017 году издание Vice, Motherboard, сообщило, что пользователь Reddit под ником deepfakes разработал алгоритм создания фейковых видео с использованием открытого исходного кода. Reddit забанил пользователя, но практика распространилась. Изначально для создания дипфейков требовалось уже существующее видео, настоящее вокальное исполнение и хорошие навыки монтажа. Сегодняшние генеративные системы искусственного интеллекта позволяют пользователям создавать убедительные изображения и видео на основе простых письменных подсказок. Цифровые подделки становится все труднее обнаружить, поскольку компании, занимающиеся искусственным интеллектом, применяют новые инструменты к огромному объему материалов, доступных в Интернете, от YouTube до библиотек изображений и видео.

Поддельное изображение Папы Франциска, созданное Midjourney AI (слева), и настоящая фотография Папы Франциска. Источник: Midjourney; АФП/Getty Images
Поддельное изображение Папы Франциска, созданное Midjourney AI (слева), и настоящая фотография Папы Франциска. Источник: Midjourney; АФП/Getty Images

5. Каковы еще примеры дипфейков?

Китайские тролли распространили сфабрикованные изображения августовских лесных пожаров на гавайском острове Мауи, чтобы поддержать утверждение о том, что они были вызваны секретным «погодным оружием», которое испытывают США. В мае 2023 года американские акции ненадолго упали после того, как в Интернете распространилось изображение, на котором видно, что Пентагон горит. Эксперты заявили, что фальшивое изображение имеет признаки того, что оно было создано искусственным интеллектом. В феврале того же года появился сфабрикованный аудиоклип, в котором говорилось, что кандидат в президенты Нигерии Атику Абубакар замышляет фальсификацию результатов голосования в этом месяце.

6. Какая здесь опасность?

Есть опасение, что дипфейки в конечном итоге станут настолько убедительными, что будет невозможно отличить настоящее от вымышленного. Представьте себе мошенников, манипулирующих ценами акций, производящих фальшивые видео, на которых руководители компаний выпускают корпоративные новости, или сфальсифицированные видео, на которых солдаты совершают военные преступления. Политики, бизнес-лидеры и знаменитости подвергаются особому риску, учитывая, как много их записей доступно. Эта технология делает возможной так называемую порноместь, даже если не существует реальных фотографий или видео в обнаженном виде, при этом жертвами обычно становятся женщины. Если видео становится вирусным в Интернете, его практически невозможно сдержать. Дополнительная проблема заключается в том, что распространение информации о дипфейках облегчит людям, которые действительно засняты на пленке за совершением или высказыванием нежелательных или незаконных вещей, возможность утверждать, что доказательства против них являются фальшивыми. Некоторые люди уже используют дипфейковую защиту в суде.

7. Делается ли что-нибудь для этого?

Машинное обучение, создающее дипфейки, нелегко обратить вспять и обнаружить их. Но несколько стартапов, таких как Sensity AI из Нидерландов и Sentinel из Эстонии, разрабатывают технологии обнаружения, как и многие крупные технологические компании США. В ноябре 2022 года корпорация Intel выпустила продукт FakeCatcher, который, по ее словам, может обнаруживать фальшивое видео с точностью 96%, наблюдая за тонкими изменениями цвета на коже субъекта, вызванными кровотоком. Компании, включая Microsoft Corp., обязались вставлять цифровые водяные знаки в изображения, созданные с помощью инструментов искусственного интеллекта, чтобы отличать подделки. Законодательные органы штатов США действовали быстрее, чем Конгресс, чтобы справиться с непосредственным вредом ИИ. Несколько штатов приняли законы, регулирующие дипфейки, в основном в контексте порнографии и выборов. Предлагаемый Закон Европейского Союза об искусственном интеллекте потребует от платформ маркировать дипфейки как таковые.

Источник: bloomberg.com