Найти в Дзене
Между нами

Когда алгоритм раздел певицу Taylor Swift: история о том, как искусственный интеллект решил заняться порнографией

В январе 2024 года интернет столкнулся с ситуацией, которая выглядела одновременно предсказуемо и дико: нейросети массово принялись раздевать знаменитостей. Главной жертвой цифрового стриптиза стала Тейлор Свифт — певица, чья карьера построена на тщательном контроле собственного имиджа. Алгоритмы, впрочем, о репутационных рисках не думают. Они вообще ни о чём не думают, что и создаёт основную проблему.

Фальшивые откровенные изображения поп-звезды разлетелись по социальным платформам со скоростью лесного пожара в засушливый сезон. Счётчики просмотров взлетали к отметкам в десятки миллионов, прежде чем модераторы успевали моргнуть. X (бывший Twitter - запрещен) временно заблокировал поиск по имени певицы — мера отчаянная и запоздалая, как попытка закрыть дверь амбара после того, как лошади уже скрылись за горизонтом.

-2

История эта началась не в январе 2024-го. Она тлела годами, накапливая критическую массу технологических возможностей и человеческой изобретательности в худшем её проявлении. Дипфейки — синтетические медиа, созданные с помощью глубинного обучения — существуют с 2017 года, когда энтузиасты Reddit впервые продемонстрировали, что можно делать с чужими лицами и телами при наличии достаточного количества исходных изображений и вычислительных мощностей.

Технология развивалась стремительно. То, что пять лет назад требовало специализированных знаний и часов обработки, теперь доступно любому пользователю смартфона через приложения с интерфейсом в три кнопки. Барьер входа рухнул до уровня плинтуса. Моральные барьеры последовали следом, причём с заметным энтузиазмом.

-3

Случай со Свифт выделялся масштабом. Это был не единичный инцидент в тёмных углах интернета, а массированная волна, накрывшая мейнстримные платформы. Изображения генерировались тысячами, распространялись миллионами пользователей, обсуждались повсеместно. Феномен превратился из технологического курьёза в социальную проблему примерно с той же скоростью, с которой нейросеть обрабатывает запрос.

Абсурдность ситуации усиливалась тем, что изначально многие восприняли происходящее как реальную утечку. Человеческий мозг, эволюционно не приспособленный к эпохе синтетических медиа, по-прежнему доверяет визуальным свидетельствам. "Вижу — значит, существует" перестало работать где-то между 2020 и 2023 годом, но новость эта до коллективного сознания дошла с опозданием. Классическая ситуация: технология уже здесь, законодательство в пути, а общественное понимание застряло на таможне.

Фанатская база Свифт отреагировала мгновенно и организованно. Армия поклонников, известная военной дисциплиной и способностью к скоординированным действиям, развернула кампанию по массовой жалобе на контент. Они заваливали платформы репортами, заполняли тренды хештегами поддержки, пытались выдавить фальшивки из информационного пространства чистым энтузиазмом. Эффективность была переменной, но демонстрация солидарности — впечатляющей.

-4

Технологические гиганты заметались в попытках закрыть дыру в репутации. Microsoft, чьи инструменты Designer и Bing Image Creator использовались для создания части контента, экстренно обновила фильтры безопасности. Компания добавила имя певицы в чёрный список для генерации — решение прямолинейное и неэффективное в долгосрочной перспективе, учитывая, что знаменитостей в мире несколько больше одной, а вариаций написания имён — бесконечное множество.

OpenAI, создатель DALL-E, заявила о существующих мерах защиты. Google подчеркнула ответственный подход к разработке. Midjourney указала на строгую модерацию. Каждая компания поспешила дистанцироваться от скандала, хотя технологический фундамент для подобных злоупотреблений заложили именно они. Ситуация напоминала производителей динамита, удивлённых тем, что кто-то использует продукт не для прокладки туннелей.

Проблема в том, что централизованные платформы — лишь верхушка айсберга. Открытые модели машинного обучения доступны для скачивания и локального запуска. Stable Diffusion и аналогичные системы можно модифицировать, убирая встроенные ограничения. Сообщества энтузиастов обмениваются модифицированными версиями, натренированными на специфическом контенте. Эта экосистема существует параллельно официальным сервисам, вне досягаемости корпоративных политик использования.

-5

Законодательство предсказуемо отставало от реальности. В США не существовало федерального закона, прямо запрещающего создание синтетических откровенных изображений без согласия. Отдельные штаты принимали собственные нормы, создавая лоскутное одеяло юрисдикций. В Европе регуляторы размышляли о включении дипфейков в рамки законов о цифровых услугах. Азиатские страны экспериментировали с различными подходами — от драконовских запретов до либерального невмешательства.

Жертвами становились не только мировые знаменитости. Школьницы обнаруживали собственные дипфейк-изображения, распространяемые одноклассниками. Бывшие партнёры использовали технологию для цифровой мести. Политические активистки сталкивались с порно-дипфейками как инструментом дискредитации. Масштаб явления рос экспоненциально, а видимость получали только случаи с медийными персонами.

Технологические решения проблемы выглядели так же надёжно, как замок из песка перед приливом. Водяные знаки обходились простейшими манипуляциями. Детекторы дипфейков демонстрировали точность чуть выше подбрасывания монетки. Системы контентной модерации захлёбывались в объёмах. На каждую закрытую лазейку находилась дюжина новых. Гонка вооружений между создателями защиты и теми, кто её обходит, напоминала бег по эскалатору, движущемуся в противоположном направлении.

Появились предложения о криптографической верификации подлинных изображений. Идея заключалась в создании цепочки доверия от момента съёмки до публикации. Технически осуществимо, практически утопично. Требовало бы перестройки всей экосистемы создания и распространения визуального контента, единых стандартов, массового принятия. Вероятность реализации оценивалась примерно как шансы на всеобщий мир через групповую терапию.

-6

Экономическая составляющая добавляла циничности. Порнографические дипфейки генерировали трафик, трафик конвертировался в рекламные доходы. Теневые сайты монетизировали подписки на эксклюзивный контент со знаменитостями. Разработчики приложений получали доход от платных версий с расширенными возможностями. Выстраивалась целая индустрия вокруг цифрового насилия, с бизнес-моделями и точками роста.

Философский аспект проблемы касался природы изображения в цифровую эпоху. Фотография утратила статус доказательства реальности где-то между изобретением Photoshop и массовым распространением генеративных моделей. Общество оказалось в странном промежутке: старые механизмы доверия разрушены, новые не выработаны. Любое изображение теперь потенциально синтетическое, любое видео — вероятно сфабрикованное.

Психологическое воздействие на жертв оказывалось разрушительным. Невозможность контролировать собственное цифровое представление, бессилие перед техническими возможностями анонимных создателей контента, отсутствие эффективных механизмов защиты. К этому добавлялась необходимость публично обсуждать ситуацию, что само по себе расширяло аудиторию осведомлённых о существовании материалов.

Свифт публично не комментировала инцидент подробно. Её команда ограничилась сдержанными заявлениями через представителей. Молчание было стратегическим — любое обсуждение привлекало бы дополнительное внимание к существованию материалов. Парадокс цифровой эпохи: лучший способ борьбы с вирусным контентом — игнорирование, но игнорирование воспринимается как безразличие или признание поражения.

Корпорации продолжали совершенствовать генеративные модели, добавляя мощности и возможности. Каждое обновление делало результаты более убедительными, процесс — более простым, доступ — более широким. Параллельно развивались инструменты защиты, но асимметрия оставалась: создать синтетический контент проще, чем его достоверно детектировать. Защитники играли в догонялки с постоянным отставанием на круг.

Образовательные инициативы пытались повысить медиаграмотность. Учить людей критически оценивать визуальный контент, проверять источники, сомневаться в подлинности. Благородные усилия с сомнительной эффективностью перед лицом технологий, делающих фальшивки неотличимыми от оригиналов даже для специалистов. Когда экспертам требуется криминалистический анализ для определения подлинности, рассчитывать на бдительность обычного пользователя оптимистично.

История с дипфейками Свифт стала катализатором дискуссий, но не переломным моментом. Проблема осталась нерешённой, технологии продолжили развитие, законодатели — обсуждения, платформы — латание дыр. Очередной скандал в череде подобных, очередная демонстрация того, как цифровые инструменты опережают способность общества их регулировать.

Финальный штрих к абсурдности: инциденты подобного рода стали настолько частыми, что перестали шокировать. Общество выработало циничную привычку к существованию синтетической порнографии со знаменитостями. От возмущения к принятию как неизбежного зла цифровой эпохи — путь оказался короче, чем хотелось бы думать. Нормализация ненормального, адаптация к неприемлемому.

Технологический прогресс продолжается независимо от этических соображений. Алгоритмы совершенствуются, модели обучаются, возможности расширяются. Человечество получило инструменты создания любой визуальной реальности и теперь разбирается с последствиями этой способности. Процесс обещает быть долгим, болезненным и поучительным — если, конечно, кто-то будет извлекать уроки, а не просто ждать следующего скандала.

Другие познавательные статьи и рассказы читайте на моем сайте и подписывайтесь на мой ТГ, чтобы получать уведомления о новых материалах