Евгений Дегтярев — журналист
Что будет, если взять искусственный интеллект, фотографии знаменитостей, несколько украденных порнороликов и добавить все это в программу, которую потянет средненький домашний компьютер? Получится наша реальность.
В этой реальности анонимные цифровые онанисты уже пару месяцев забавы ради делают порноролики, в которых селебритис воплощают самые грязные фантазии своих создателей и обычных зевак, заглянувших на Reddit в поисках свежих мемасов.
Называется все это deepfake porn — в честь создателя, чьи первые шедевры были опубликованы на специальном SubReddit, на который очень быстро подписались 10 тысяч человек. Чуть позже в свободном доступе оказалась и простенькая программка, позволяющая всем желающим создавать порно с любой знаменитостью. Аудитория канала выросла до 90 тысяч человек.
ВЫГЛЯДЯТ ФИНАЛЬНЫЕ ПРОДУКТЫ ОТКРОВЕННО ФИГОВО. АЛГОРИТМ СИЛЬНО ТУПИТ, ЛИЦА ЗНАМЕНИТОСТЕЙ РАССЫПАЮТСЯ НА ПИКСЕЛИ, МИМИКА РЕДКО СООТВЕТСТВУЕТ ПРОИЗВОДИМЫМ АКТРИСАМИ ЗВУКАМ. НУЖНО ОБЛАДАТЬ ОЧЕНЬ ПЛОХИМ ЗРЕНИЕМ, ЧТОБЫ В УДОВОЛЬСТВИЕ МАСТУРБИРОВАТЬ НА ТАКОЕ ЗРЕЛИЩЕ. А ВОТ ПОСМЕЯТЬСЯ ОТ ДУШИ ПОЛУЧИТСЯ НАВЕРНЯКА.
Однако низкое качество роликов не помешало им быстро распространиться по всем социальным сетям — ведь искусство должно быть свободным. Появились даже лихие умельцы, обещающие задорого сделать отличное порево, к которому не возникнет технических вопросов. С вас — деньги и настоящий ролик со знаменитостью, где ее лицо будет хорошо освещено и снято с разных ракурсов, с них — финальный продукт, от которого задымятся ладошки даже у искушенных венкеров.
Что произошло дальше, особенно после того, как deepfake начал потихоньку становиться коммерческим проектом, догадаться несложно. Пришли моралфаги и все испортили, заставив онанистов-звездофилов врать о том, что технология появилась во благо мира. Голливуд теперь сможет быстро и дешево использовать лица умерших знаменитостей в новых фильмах, оставив в прошлом допотопный CGI, а простые люди обучатся работе с нейронными сетями.
Само собой, для моралфагов такие аргументы — детский лепет, ведь моралфаги имеют преимущество в любом споре: оперируют взрывоопасными социальными категориями, такими как неприкосновенность частной жизни, неравенство и харассмент. В этом кейсе нашлось все. Во-первых, несоблюдение прав порноактрис, которые работают, не вынимая членов, не для того, чтобы их лица меняли на лица каких-то там селебритис. Во-вторых, нарушение неприкосновенности частной жизни и уничтожение репутации самих звезд. В-третьих, введение в заблуждение неподкованных пользователей Сети, которым трудно отличить фейковое видео (с приклеенным лицом) от настоящего.
Этого хватило для того, чтобы все без исключения социальные сети, куда были загружены ролики deepfake, включая Pornhub, прикрываясь разными обоснованиями, заблокировали контент и забанили его авторов. Последними пали Twitter, который с ограничениями, но разрешает клубничку, и, что самое интересное, Reddit, который несколько часов назад заблокировал сабреддит r/deepfakes, на который переехали порноролики, созданные алгоритмом.
НИКТО СЕГОДНЯ, ВКЛЮЧАЯ ПЛАТФОРМЫ, НАЗЫВАЮЩИЕ СЕБЯ РЬЯНЫМИ ПОБОРНИКАМИ СВОБОДНОГО ИНТЕРНЕТА, НЕ ГОТОВ ОКАЗАТЬСЯ В ЦЕНТРЕ НОВОГО ОБЩЕСТВЕННОГО СКАНДАЛА, В КОТОРОМ ЗАМЕШАНЫ ГЕНДЕР И НЕПРИКОСНОВЕННОСТЬ ЧАСТНОЙ ЖИЗНИ, ПУСТЬ ДАЖЕ В МИРОВОЙ ЮРИДИЧЕСКОЙ ПРАКТИКЕ ПОКА НЕТ СЛУЧАЕВ, КОГДА В ТЮРЬМУ ПОСАДИЛИ БЫ ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ. ПОПАХИВАЕТ СТАРЫМ ДОБРЫМ СТРАХОМ БЛОКИРОВКИ И ПАДЕНИЯ АКЦИЙ. А, КАЗАЛОСЬ БЫ, ПРИ ЧЕМ ТУТ РОСКОМНАДЗОР?
Вопросы, конечно, в этой истории есть ко всем. К порноактрисам, которые сначала выбирают себе имена, схожие с именами голливудских звезд, чтобы их было проще запомнить, а потом жалуются, когда кто-то превращает их в этих звезд. К феминисткам, которые из своей Нарнии визжат, что опыт deepfake показал, что женщина в порно — лишь безликий инструмент удовлетворения грязных мужских потребностей. Вот это открытие, девчонки. А что произойдет, когда вы узнаете, что Земля не плоская? Скажете, что это грязный сексизм и шарообразной планету сделали мужики, которые не могут думать ни о чем, кроме сисек?
Есть вопросы к противникам распространения искусственного интеллекта, которые вынуждены идти на сделку с совестью, ведь им очень хочется, чтобы каждый год выходили новые айфоны, чтобы теслы летали в космос, но при этом не хочется, чтобы искусственный интеллект, на котором все это очень скоро будет основано, навредил им.
Диджитал-моралистов разрывает на куски, потому что они против того, что высокие технологии сосредоточены в руках богачей, которые используют их для того, чтобы делать красивую таргетированную рекламу и становиться еще богаче, а не для развития транспорта и здравоохранения. И при этом они против того, чтобы продвинутые технологии регулировались государством, потому что тогда половину всех ништяков обложат налогами, а половину запретят.
Нет вопросов только к юзерам технологии, на которых ополчились все, решив, что именно из-за них нас ждет мрачное будущее, в котором мы не сможем отличить реальное видео от фейкового. Что на самом деле показал опыт deepfake, так это то, что высокие технологии в руках широкой общественности — безобиднее, чем спящая черепаха. Получив инструмент, который можно использовать для поднятия индустрии цифровых развлечений на новый уровень, люди подумали: как приспособить эту штуку, чтобы хорошенько подрочить?
В общем, можно спать спокойно. Если однажды мы все же изобретем “Скайнет” и терминаторов, то они смогут разве что затрахать нас до смерти.