Найти тему
GigaScience

Роботы не хотят работать с людьми.

А точнее, речь идет о массовой "цензуре" - нейросети все неохотнее работают с образами реальных людей. Почему так получается? Давайте разбираться.

В начале 2020-х мир стал свидетелем своеобразной революции в области графических нейросетевых инструментов. То, что раньше казалось фантастикой, стало реальностью: любой человек, даже без профессиональных навыков, теперь может создавать реалистичные изображения, включая портреты людей, всего за несколько минут. Эти инновации предоставили огромные возможности для творчества, но также подняли множество этических вопросов.

Одно из самых популярных направлений работы графических нейросетей - гибридизация популярных образов и идей. Здесь наша редакция попросила нейросеть изобразить "Терминатора в стилистике Ханса Гигера".
Одно из самых популярных направлений работы графических нейросетей - гибридизация популярных образов и идей. Здесь наша редакция попросила нейросеть изобразить "Терминатора в стилистике Ханса Гигера".

С самого начала появления этих технологий было ясно, что существует ряд очевидных (более-менее общепринятых) ограничений, которые необходимо соблюдать. Это включает в себя запрет на создание изображений со сценами насилия, эротическим "взрослым" контентом, а также "художественные" хулиганства, направленные на опошление образов реальных личностей. Кроме того, этот инструмент может быть использован для создания фото- и видео-фейков, с прямой целью введения широких слоев общества в заблуждение.

Однако, даже не учитывая эти очевидные проблемы, вопрос стоит глубже: правомерно ли вообще создавать лжефотографии настоящих личностей, даже если у автора нет злого умысла? Несмотря на то что такие запросы могут казаться невинными, они порождают множество этических дилемм.

Давайте разберемся, как разработчики нейросетевых инструментов стараются регулировать использование своих технологий и возможно ли пользователям обойти установленные ограничения.

Ситуация с графической нейросетью Stable Diffusion остается двоякой. С одной стороны, разработчики "юридически" просят пользователей не заниматься генерацией сомнительного контента, но техническая реализация цензуры остается не совсем понятной. Такое положение дел отчасти обусловлено открытым исходным кодом разработки.
Ситуация с графической нейросетью Stable Diffusion остается двоякой. С одной стороны, разработчики "юридически" просят пользователей не заниматься генерацией сомнительного контента, но техническая реализация цензуры остается не совсем понятной. Такое положение дел отчасти обусловлено открытым исходным кодом разработки.

Любое, даже кажущееся безобидным, изображение реального человека, созданное нейросетью, по сути, является "дипфейком". Даже если оно было создано без злого умысла, такое изображение может привести к ряду нежелательных последствий. Для простоты понимания: представьте, что актер, готовясь к новой роли, следит за диетой, но в интернете появляется "фото", где он якобы уплетает большой сочный бургер. Это может вызвать вопросы со стороны тренера и даже поклонников, не так ли? Или другой пример: публичный человек может оказаться в неловкой ситуации, когда ему придется объясняться перед своей семьей по поводу "фотографии" с какой-то вечеринки, где его на самом деле никогда не было.

Весь принцип сохранения неприкосновенности "образа личности" в данном случае сводится к золотому правилу нравственности. Если бы мы не хотели, чтобы с нашим образом производили подобные манипуляции, то и другим людям, в том числе публичным, следует уделять такое же уважение.

Фотореализм в области генерации. Вскоре, определение "настоящести" кадра может стать проблемой.
Фотореализм в области генерации. Вскоре, определение "настоящести" кадра может стать проблемой.

Именно этот подход применяется разработчиками графических нейросетей, таких как Midjourney и DALL·E - оба инструмента устанавливают строгие ограничения на генерацию изображений реальных людей. Они признают, что создание таких изображений может нарушать права и частную жизнь публичных персон. При этом их технические подходы к решению этой проблемы во многом сходятся: "фильтры" на запрос контента устанавливаются в самом начале цепочки. Обрабатывая ваш текстовый запрос, нейросеть отбрасывает упоминания реальных людей, самостоятельно заменяя их на обобщенные термины вроде "актер, политик, ученый", чтобы предотвратить создание изображений, которые могут быть использованы в злонамеренных целях. Либо, нейросеть может отказаться генерировать изображение вовсе, сославшись на "политику создания контента".

Но как правило, на данный момент нейрогенерация "кишит" различными артефактами в виде отсутствующих частей объектов, или проблемой с пропорциями.
Но как правило, на данный момент нейрогенерация "кишит" различными артефактами в виде отсутствующих частей объектов, или проблемой с пропорциями.

Другой пример - графическая нейросеть Шедеврум. Формально, в ней точно так же присутствуют ограничения на создание портретов реальных людей. Однако, как и в случае с другими инструментами наблюдается технический аспект, который делает эту задачу довольно сложной. Ведь существует огромное количество публичных личностей по всему миру, и создать базу данных со всеми "табуированными" именами - непростая задача. Вы можете самостоятельно в этом убедиться, ведь Шедеврум распространяется совершенно бесплатно. И хотя мы не советуем Вам пытаться нарушить правила разработчика, но отметим, что генерация портретов российских публичных личностей заблокирована, а вот портреты многих зарубежных знаменитостей все еще доступны.

Некоторые нейросети придают "мультяшность" картинке. даже если поступил запрос на фотореализм. Возможно, это техническая особенность, а возможно - защита от производства фейков.
Некоторые нейросети придают "мультяшность" картинке. даже если поступил запрос на фотореализм. Возможно, это техническая особенность, а возможно - защита от производства фейков.

Еще один интересный пример строгой "цензуры" - текстовый нейрогенератор GPT-4, который недавно получил функцию анализа изображений. В отличие от графических генераторов, которые создают изображения на основе текстовых описаний, он работает в обратном направлении: вы предоставляете ему изображение, а он дает текстовое описание того, что видит, включая возможный контекст.

Однако, есть нюанс: GPT-4 наотрез отказывается анализировать изображения с людьми. И речь идет не только о знаменитостях, но и о любых людях в целом. Причина такого решения проста и понятна: в любом обществе найдутся люди, которые могут быть оскорблены или недовольны "мнением робота" по поводу реального человека, будь то оценка его внешности, стиля одежды или даже занятия, запечатленного на фото.

Это может привести к абсурдным ситуациям. Представьте, что вы хотите получить анализ фотографии самолета - хотите, чтобы робот подсказал вам название и модель этой техники. Но на заднем плане случайно заснят человек. Чтобы нейросеть всё же провела анализ, вам придется "заблюрить, закрасить" этого человека - в таком случае цензором выступаете вы сами.

Более того, если вы отправите GPT-4 портрет "несуществующего", сгенерированного человека, который создан графическим генератором, робот все равно откажется его обсуждать, сославшись на правила об обсуждении "реальных людей".

Нейросеть "This person does not exist" имеет одну единственную функцию - она бесконечно генерирует портретную внешность людей, которых никогда не существовало. По теории вероятности, есть микроскопический шанс, что она может сгенерировать и внешность, сильно похожую на Вашу.
Нейросеть "This person does not exist" имеет одну единственную функцию - она бесконечно генерирует портретную внешность людей, которых никогда не существовало. По теории вероятности, есть микроскопический шанс, что она может сгенерировать и внешность, сильно похожую на Вашу.

Но так ли страшны возможные проблемы, связанные с обработкой человека инструментами искусственного интеллекта? На самом деле, сегодня уже существуют истории небольших "скандалов", связанных с графическими нейросетями, например, с инструментом Fusion Brain. Эта нейросеть изначально была запущена без каких-либо ограничений на генерацию изображений, что предоставило пользователям абсолютную свободу действий. Как можно было ожидать, недобросовестные пользователи быстро воспользовались этим, начав создавать различные "художественные хулиганства" и просто пошлости, которые запросто могли оскорбить или даже угрожать реальным людям.

Общественность озвучила эту проблему, и команда разработчиков Fusion Brain оперативно внесла изменения в свою систему, введя строгие правила и ограничения на генерацию изображений.

Даже обладая инструментами цензуры, нейросети иногда могут выдать эротизированные образы. Цензура на данной картинке добавлена редактором, изначально нейросеть выдала "откровенное изображение" по ошибке.
Даже обладая инструментами цензуры, нейросети иногда могут выдать эротизированные образы. Цензура на данной картинке добавлена редактором, изначально нейросеть выдала "откровенное изображение" по ошибке.

Все эти примеры свидетельствуют, что нейросети отстраняются от работы с информацией, касающейся реальных людей. Но предположим, что существует ряд полезных или, по крайней мере, безвредных задач, связанных с генерацией контента на основе образов "настоящих, оригинальных" людей. Так что же предлагают разработчики в качестве компромисса?

Один из способов – использование так называемого "вербального портрета". Вместо того чтобы загружать фотографию или просить нейросеть изобразить конкретного человека, пользователь может предоставить подробное текстовое описание, не ссылаясь на личность носителя внешности напрямую. Это может включать в себя черты лица, цвет волос, особенности внешности и многие другие характеристики.

Однако, стоит понимать, что этот метод далек от совершенства. Составить детальное и одновременно непротиворечивое описание человека – задача не из простых, да и вообще требует от рядового пользователя навыков профессионального художника-портретиста, хорошо знакомого с особенностями внешности людей. Кроме того, с технической стороны, нейросети имеют определенные ограничения по количеству слов в запросе. Слишком длинный и подробный запрос может оказаться непригодным для обработки.

Попытка "добросовестного" создания внешности знаменитости - нейросети был предоставлен только подробный вербальный портрет человека, без указания имени. В итоге, получившийся образ(справа) хоть и напоминает голливудского актера Киану Ривза, но даже близко не может отобразить уникальность его персональной идентичности.
Попытка "добросовестного" создания внешности знаменитости - нейросети был предоставлен только подробный вербальный портрет человека, без указания имени. В итоге, получившийся образ(справа) хоть и напоминает голливудского актера Киану Ривза, но даже близко не может отобразить уникальность его персональной идентичности.

Таким образом, хотя вербальный портрет и представляет собой интересную альтернативу, он не является универсальным решением. Неудивительно, что на этом фоне появились идеи о том, как "хакнуть, взломать" такую систему - в том числе этими методиками могут пользоваться и условные "злоумышленники".

Один из популярных способов "хакинга" заключается в том, чтобы запросить изображение известного персонажа из кино, театра или литературы, который был исполнен конкретным актером. Например, вместо прямого запроса с именем голливудского актера, пользователь может попросить изобразить его наиболее знаменитого персонажа. Нейросеть, обращаясь к своей базе данных, может сгенерировать изображение, которое будет очень близко к реальной персоне, так как персонаж и актер часто ассоциируются между собой.

У нас получилось обмануть одну из нейросетей со строгой цензурой - по мнению нейросети этот человек лишь отдаленно напоминает Брэдда Питта.
У нас получилось обмануть одну из нейросетей со строгой цензурой - по мнению нейросети этот человек лишь отдаленно напоминает Брэдда Питта.

Впрочем, не будем составлять подробную инструкцию по подобным техникам, но список таких лазеек может быть обширным. Обозначим их широкими мазками:

  • Абстрактные запросы: Пользователи могут попробовать задать более абстрактные или неоднозначные запросы, надеясь, что нейросеть "поймет" их намерение и создаст желаемое изображение. Например, фраза "главный герой, избранный, в черном кожаном плаще, из постапокалиптической кибер-вселенной, позирует для фото" может показаться бессвязной бессмыслицей, но будучи погруженной в контекст, нейросеть, также как и вы, может понять о ком конкретно идет речь.
  • Использование кодовых слов или метафор: Вместо прямого запроса "изображение голливудского актера X", пользователь может попробовать что-то вроде "известная звезда кино из 90-х, сыгравшая в фильме Y".
  • Комбинация запросов: Попытка объединить несколько элементов в одном запросе, чтобы "запутать" нейросеть и получить желаемый результат. Например, если вы запросите фото "железного человека без маски", и заодно дополните "в смокинге на красной ковровой дорожке", вы с большой вероятностью получите изображение внешности того самого актера.
  • Модификация сгенерированных изображений: После получения изображения от нейрогенератора, пользователи могут дополнительно редактировать его с помощью других, более привычных инструментов, чтобы приблизить к желаемому результату. То есть нейросеть дает похожую основу - а довести до ума можно в обычном графическом редакторе наподобие Photoshop.
  • Ну и наконец, это может быть обычный программный хакинг, что гораздо сложнее для использования неподготовленным человеком.

Впрочем, в последнее время разработчики внедряют все более продвинутые системы фильтрации входящих запросов, а нейросети все лучше вникают в предложенный пользователем "контекст" - поэтому большинство озвученных методов уже уходят в прошлое.

Считывают ли нейросети контекст, могут ли сопоставлять исходные данные? Судите сами - мы попросили изобразить немецкого дога (самая большая порода собак) в интерьере дома хоббита Бильбо. Мы не давали конкретных указаний, какие пропорции должны получится - нейросеть самостоятельно поняла, что такая собака будет занимать всю комнату в доме низкорослого хоббита.
Считывают ли нейросети контекст, могут ли сопоставлять исходные данные? Судите сами - мы попросили изобразить немецкого дога (самая большая порода собак) в интерьере дома хоббита Бильбо. Мы не давали конкретных указаний, какие пропорции должны получится - нейросеть самостоятельно поняла, что такая собака будет занимать всю комнату в доме низкорослого хоббита.

В качестве итогов, поднимем философский вопрос: может ли цифровое пространство погрузиться в хаос и безумие, где будет невозможно отличить правду от вымысла?

Сегодня большинство разработчиков стремятся скорее к консервативности, предпочитая вводить строгие ограничения и цензуру для своих графических нейросетей. Это делается в интересах защиты частной жизни и прав публичных личностей, чтобы предотвратить несанкционированное использование их образов. Однако, при всей строгости регулирования, нет гарантии, что каждый разработчик нейросетей будет следовать этим стандартам.

В то время как многие компании придерживаются высоких этических стандартов, всегда найдутся те, кто будет искать способы обойти систему или даже создавать новые инструменты специально для генерации "злоумышленного" контента. В обозримой перспективе маячит появление своеобразного "черного рынка" инструментов для генерации "взрослого" или даже "запрещенного" контента, что ставит под вопрос способность общественно-политических институтов контролировать и регулировать эту индустрию.

Как и с любой новой технологией, только время покажет, как общество будет реагировать на эти вызовы и какие стандарты будут установлены для обеспечения безопасности и нравственности в этой быстро развивающейся сфере.

-11