Вы уже наверняка видели новость, как нейросетку обучили подставлять лица известных актрис их коллегам из порно.
*Ссылка уже удалена :с
Все комментаторы согласны, что качество наложения уже на достаточно высоком уровне и издалека не отличишь фэйк. Некоторые добавляют, что классическое "близко, но есть нюансы" вызывает эффект "зловещей долины" (uncanny valley).
Но сейчас не об этом. Эта новость - хороший повод поговорить о наших образах. Не о каком-то там собственном бренде, юридических правах на собственное изображение и имя, а именно об образе нас в глазах других людей.
Мы живём на интересном изломе истории, когда все индивидуалистские приобретения последних тысяч лет откатываются назад под влиянием социальных технологий.
Уже много кто хайпил на потере приватности, когда мы уже не способны остаться совсем наедине с собой. Будто приватность – это что-то фундаментальное, а не приобретенное несколько сотен лет назад в результате массовой урбанизации и изменения планировки жилища с последующей атомизацией семьи.
Теперь вот будут говорить о правах на свое изображение, свой цифровой портрет. Наверное скоро стартуют петиции, пикеты и новое движение за запрет использования своих визуальных данных где бы то ни было. Ведь это уже не фанфики, а куда более массовый продукт. Что бы сказал Баста, увидь он свою маму в гэнг бэнге? Или в инцест контенте?
Как по мне - данная тема совсем не очевидная в плане оценки. Ведь, что скрывать, все мы фантазируем о других людях. Так всегда было. Просто сейчас идет тренд на оцифровку воображения. Пользователи сами этого хотят. И их можно понять. Только представьте этот жанр: porn on demand – вы задаете ситуацию, действующие лица, а с помощью датчиков система распознает спад внимания и добавляет сюжетный твист или просто смену позы... Кто от такого откажется?
И ещё раз: чем это отличается от того, что мы и так воспроизводим в своем воображении?
Так что не будем моралистами, а попробуем адекватно обсудить ситуацию, да? Когда придет время.