25 января в Твиттере появились порнографические дипфейк-изображения певицы Тейлор Свифт. Мужчины сгенерировали их с использованием ИИ. Дипфейк-порно быстро распространилось по Твиттеру. Одно изображение просмотрели 47 миллионов раз, прежде чем его удалили. Поклонницы Свифт массово жаловались на снимки, и даже Белый дом назвал происходящее «тревожащим». В итоге Твиттер удалил дипфейки и даже временно заблокировал поиск по имени Свифт.
Это редкое явление. Большинству женщин, которые стали жертвами создания и распространения дипфейк-порнографии, повезло меньше. 17-летняя актриса Сочи Гомес рассказала, что её порнофейки Твиттер не удалил:
— Они не имеют ко мне никакого отношения. И всё же они лежат онлайн — и там моё лицо.
Ноэль Мартин, активистка и исследовательница лаборатории технологий и политики Университета Западной Австралии, пережила нечто похожее. 11 лет назад [тогда ей было 18 лет. — Лена К.] она обнаружила, что её лицо используется в порнографическом контенте.
— У обычных женщин, таких, как я, нет миллионов заступниц, которые попытаются защитить нас и удалить дипфейк-контент, — говорит Ноэль. — Крупные технологические компании не реагируют на злоупотребления, которые касаются обычных женщин.
Вначале это были просто фото, рассказывает Ноэль, но в последние несколько лет, по мере развития генеративного ИИ, мужчины стали создавать видео с ней и выкладывать его на порносайтах.
— Это отвратительно, это шокирует, — говорит Ноэль. — Я стараюсь не смотреть эти ролики. Если я всё-таки сталкиваюсь с ними, я просто... — Она замолкает. — Даже не знаю, как это описать. Просто ощущаю волну боли.
Ноэль объясняет: даже если изображения не особенно реалистичны — этого всё равно достаточно, чтобы нанести непоправимый вред женщине. И удалить изображения из интернета почти невозможно. Это влияет на всю жизнь — от возможности трудоустройства и способности зарабатывать до твоих отношений. Последствия действуют вечно. О том, что в интернете лежит дипфейк-порнокартинки или видео с твоим лицом, приходится рассказывать на собеседованиях, на первых свиданиях. Это затрагивает все стороны жизни.
Когда писательница Лора Бейтс опубликовала книгу «Мужчины, которые ненавидят женщин», посвящённую мизогинии, — мужчины присылали ей множество дипфейк-порнокартинок. На них изображалось, как Лора занимается всевозможными видами секса с этими мужчинами, в частности делает им минeт.
Лора Бейтс говорит: людям трудно понять, что дипфейк-порно, пусть оно и фейковое, приносит тяжёлые последствия. Увидеть свой образ, невероятно реалистичный, в чьей-то безумно мизогинной фантазии — это глубоко ранит, это очень унизительно. И таким изображением могут поделиться миллионы людей, добавляет Лора.
Исследование, проведённое в 2019 году компанией по кибербезопасности Deeptrace, показало, что 96% дипфейк-видео, выложенных онлайн, содержат порнографию, созданную без согласия изображённого на видео лица.
— Это просто новый способ контролировать женщин, — говорит Лора Бейтс. — Вы берёте кого-то вроде Тейлор Свифт, которая необычайно успешна и сильна. Это способ загнать её обратно в рамки. Это способ сказать любой женщине: неважно, кто ты такая и чего добилась: мы превратим тебя в сексуальный объект, а ты ничего не сможешь с этим поделать.
Рани Говендер, старший сотрудник по политике и связям с общественностью NSPCC [британской благотворительной организации, которая защищает детей от жестокого обращения], говорит: известно, что дипфейк-порно чаще всего создают юноши и молодые мужчины. А жертвами почти всегда становятся девочки и женщины. Были случаи, говорит Рани, когда мальчики делали дипфейк-фото девочек с помощью приложений, которые «обнажают» человека на фотографии, а затем рассылали эти фото другим мальчикам, насмехались над девочками и травили их.
В 2023 году 14-летняя девочка рассказала службе детской линии NSPCC, что группа мальчиков сделала поддельные откровенные изображения её и других девочек и отправила в групповые чаты. Мальчиков временно исключили из школы — но они вернулись, а девочкам велели «просто жить дальше», что они изо всех сил и пытались делать. Другая девочка 15 лет рассказала, что незнакомец скачал фотографии из её инстаграм-аккаунта и сделал дипфейк-фото, где она «обнажённая» лежала на фоне своей настоящей спальни.
В 2017 году мужчины — пользователи форума Reddit вырезали лица знаменитых женщин и вставляли их в порнографические кадры. Генри Адждер, эксперт по дипфейкам и ИИ, в 2019 году провёл исследование, и оно показало, что почти весь дипфейк-контент был порнографическим. В 2020 году Генри обнаружил сообщества в телеграме, где генерировались сотни тысяч таких изображений. Мужчины, использующие ПО с открытым исходным кодом (в отличие от ИИ-инструментов вроде Dall-E 3 или Midjourney, обученных не создавать порно), могут воплощать в реальность всё, что пожелают, даже самые ужасные и жестокие фантазии.
Генри Адждер помнит, что дипфейк-порно с Тейлор Свифт создавали и распространяли ещё пять лет назад.
— Но сейчас кое-что изменилось. Я говорю о способе распространения. Твиттер — это открытая и популярная платформа. Раньше почти весь дипфейк-порноконтент публиковался в таких местах, как 4chan, Discord-сообщества или порносайты.
Генри Адждер шесть лет наблюдал за создателями дипфейк-порно и пришёл к выводу, что подавляющее большинство этих людей — мужчины. Адждер видел и то, как жертвами дипфейк-порно становились мужчины, — особенно в странах, где гомосексуальность запрещена. Но в подавляющем большинстве случаев жертвы — это женщины.
Что движет создателями дипфейк-порно? Генри Адждер говорит: одни хотят получить сексуальное удовлетворение, другие — унизить изображённую женщину или отомстить ей.
— Я видел, как мужчины создают дипфейк-порно с политикессами, чтобы запугать их и заставить замолчать. Это совершенно новое — и очень мощное — оружие для дегуманизации и объективизации женщин.
Генри Адждер говорит, что это печально: от дипфейк-порно уже пострадало множество девочек и женщин; но понадобилось, чтобы мишенью стала одна из крупнейших мировых знаменитостей, чтобы люди осознали, насколько проблема серьёзна. Он надеется, что это поможет изменить законодательство.
— Должно быть предельно ясно, — говорит Адждер. — Если вы создаёте такой контент или делитесь им, то вы преступник. Вы совершаете преступление против другого человека.
Очевидно, что ИИ будет только совершенствоваться. Но в случае с дипфейк-порно это не так важно. ИИ-порно необязательно должно быть гиперреалистичным, чтобы причинить вред, говорит Адждер. Оно может быть явной подделкой — и всё равно травмировать и унижать.
Лора Бейтс считает: нельзя смиряться с мыслью, что дипфейк-порно не вредит, потому что оно «всего лишь в интернете» или «помечено как фейк».
— Люди думают, что это не настоящее насилие, — говорит она. — Технологические компании, которые позволяют этому распространяться, ни за что не отвечают, не получают никаких последствий. И неважно, кто вы: обычная школьница или мировая поп-звезда. Как только эти снимки появятся в сети — будет уже слишком поздно.
***
Текст: Эмине Сейнер. Перевод и пересказ: Лена Климова.