Найти в Дзене
Видима и свободна

Что кроется внутри скандала с дипфейк-порно Тейлор Свифт

Коллаж: FilmMagic/Jeff Kravitz/Getty images
Коллаж: FilmMagic/Jeff Kravitz/Getty images

25 января в Твиттере появились порнографические дипфейк-изображения певицы Тейлор Свифт. Мужчины сгенерировали их с использованием ИИ. Дипфейк-порно быстро распространилось по Твиттеру. Одно изображение просмотрели 47 миллионов раз, прежде чем его удалили. Поклонницы Свифт массово жаловались на снимки, и даже Белый дом назвал происходящее «тревожащим». В итоге Твиттер удалил дипфейки и даже временно заблокировал поиск по имени Свифт.

Это редкое явление.
Большинству женщин, которые стали жертвами создания и распространения дипфейк-порнографии, повезло меньше. 17-летняя актриса Сочи Гомес рассказала, что её порнофейки Твиттер не удалил:

— Они не имеют ко мне никакого отношения. И всё же они лежат онлайн — и там моё лицо.

Ноэль Мартин, активистка и исследовательница лаборатории технологий и политики Университета Западной Австралии, пережила нечто похожее. 11 лет назад [тогда ей было 18 лет. — Лена К.] она обнаружила, что её лицо используется в порнографическом контенте.

— У обычных женщин, таких, как я, нет миллионов заступниц, которые попытаются защитить нас и удалить дипфейк-контент, — говорит Ноэль. — Крупные технологические компании не реагируют на злоупотребления, которые касаются обычных женщин.

Вначале это были просто фото, рассказывает Ноэль, но в последние несколько лет, по мере развития генеративного ИИ, мужчины стали создавать видео с ней и выкладывать его на порносайтах.

— Это отвратительно, это шокирует, — говорит Ноэль. — Я стараюсь не смотреть эти ролики. Если я всё-таки сталкиваюсь с ними, я просто... — Она замолкает. — Даже не знаю, как это описать. Просто ощущаю волну боли.

Ноэль объясняет:
даже если изображения не особенно реалистичны — этого всё равно достаточно, чтобы нанести непоправимый вред женщине. И удалить изображения из интернета почти невозможно. Это влияет на всю жизнь — от возможности трудоустройства и способности зарабатывать до твоих отношений. Последствия действуют вечно. О том, что в интернете лежит дипфейк-порнокартинки или видео с твоим лицом, приходится рассказывать на собеседованиях, на первых свиданиях. Это затрагивает все стороны жизни.

Когда писательница Лора Бейтс опубликовала книгу «Мужчины, которые ненавидят женщин», посвящённую мизогинии, — мужчины присылали ей множество дипфейк-порнокартинок. На них изображалось, как Лора занимается всевозможными видами секса с этими мужчинами, в частности делает им минeт.

Лора Бейтс говорит:
людям трудно понять, что дипфейк-порно, пусть оно и фейковое, приносит тяжёлые последствия. Увидеть свой образ, невероятно реалистичный, в чьей-то безумно мизогинной фантазии — это глубоко ранит, это очень унизительно. И таким изображением могут поделиться миллионы людей, добавляет Лора.

Лора Бейтс, авторка книги "Мужчины, которые ненавидят женщин". Фото: Sophia Evans/The Observer
Лора Бейтс, авторка книги "Мужчины, которые ненавидят женщин". Фото: Sophia Evans/The Observer

Исследование, проведённое в 2019 году компанией по кибербезопасности Deeptrace, показало, что 96% дипфейк-видео, выложенных онлайн, содержат порнографию, созданную без согласия изображённого на видео лица.

Это просто новый способ контролировать женщин, — говорит Лора Бейтс. — Вы берёте кого-то вроде Тейлор Свифт, которая необычайно успешна и сильна. Это способ загнать её обратно в рамки. Это способ сказать любой женщине: неважно, кто ты такая и чего добилась: мы превратим тебя в сексуальный объект, а ты ничего не сможешь с этим поделать.

Рани Говендер, старший сотрудник по политике и связям с общественностью NSPCC [британской благотворительной организации, которая защищает детей от жестокого обращения], говорит: известно, что дипфейк-порно чаще всего создают юноши и молодые мужчины. А жертвами почти всегда становятся девочки и женщины. Были случаи, говорит Рани, когда мальчики делали дипфейк-фото девочек с помощью приложений, которые «обнажают» человека на фотографии, а затем рассылали эти фото другим мальчикам, насмехались над девочками и травили их.

В 2023 году 14-летняя девочка рассказала службе детской линии NSPCC, что группа мальчиков сделала поддельные откровенные изображения её и других девочек и отправила в групповые чаты. Мальчиков временно исключили из школы — но они вернулись, а девочкам велели «просто жить дальше», что они изо всех сил и пытались делать. Другая девочка 15 лет рассказала, что незнакомец скачал фотографии из её инстаграм-аккаунта и сделал дипфейк-фото, где она «обнажённая» лежала на фоне своей настоящей спальни.

В 2017 году мужчины — пользователи форума Reddit вырезали лица знаменитых женщин и вставляли их в порнографические кадры. Генри Адждер, эксперт по дипфейкам и ИИ, в 2019 году провёл исследование, и оно показало, что почти весь дипфейк-контент был порнографическим. В 2020 году Генри обнаружил сообщества в телеграме, где генерировались сотни тысяч таких изображений. Мужчины, использующие ПО с открытым исходным кодом (в отличие от ИИ-инструментов вроде Dall-E 3 или Midjourney, обученных не создавать порно),
могут воплощать в реальность всё, что пожелают, даже самые ужасные и жестокие фантазии.

Генри Адждер помнит, что дипфейк-порно с Тейлор Свифт создавали и распространяли ещё пять лет назад.

— Но сейчас кое-что изменилось. Я говорю о способе распространения. Твиттер — это открытая и популярная платформа. Раньше почти весь дипфейк-порноконтент публиковался в таких местах, как 4chan, Discord-сообщества или порносайты.

Генри Адждер шесть лет наблюдал за создателями дипфейк-порно и пришёл к выводу, что
подавляющее большинство этих людей — мужчины. Адждер видел и то, как жертвами дипфейк-порно становились мужчины, — особенно в странах, где гомосексуальность запрещена. Но в подавляющем большинстве случаев жертвы — это женщины.

Кадр из фильма Another Body
Кадр из фильма Another Body

Что движет создателями дипфейк-порно? Генри Адждер говорит: одни хотят получить сексуальное удовлетворение, другие — унизить изображённую женщину или отомстить ей.

— Я видел, как мужчины создают дипфейк-порно с политикессами, чтобы запугать их и заставить замолчать. Это совершенно новое — и очень мощное — оружие для дегуманизации и объективизации женщин.

Генри Адждер говорит, что это печально: от дипфейк-порно уже пострадало множество девочек и женщин; но понадобилось, чтобы мишенью стала одна из крупнейших мировых знаменитостей, чтобы люди осознали, насколько проблема серьёзна. Он надеется, что это поможет изменить законодательство.

— Должно быть предельно ясно, — говорит Адждер. —
Если вы создаёте такой контент или делитесь им, то вы преступник. Вы совершаете преступление против другого человека.

Очевидно, что ИИ будет только совершенствоваться. Но в случае с дипфейк-порно это не так важно.
ИИ-порно необязательно должно быть гиперреалистичным, чтобы причинить вред, говорит Адждер. Оно может быть явной подделкой — и всё равно травмировать и унижать.

Лора Бейтс считает: нельзя смиряться с мыслью, что дипфейк-порно не вредит, потому что оно «всего лишь в интернете» или «помечено как фейк».

— Люди думают, что это не настоящее насилие, — говорит она. — Технологические компании, которые позволяют этому распространяться, ни за что не отвечают, не получают никаких последствий. И неважно, кто вы: обычная школьница или мировая поп-звезда. Как только эти снимки появятся в сети — будет уже слишком поздно.

***

Текст: Эмине Сейнер. Перевод и пересказ: Лена Климова.

💰Поддержать канал