В Дзен запрещено генерировать текст нейросетями. По поводу картинок такого запрета нет, однако, по всей видимости, Дзен тоже относится к ним негативно. Кстати, ранее я писал, что в ленте не видно статей с картинками от нейросетей.
Но, поскольку Дзен не владеет телепатией, то он должен как-то уметь определять контент, сгенерированный нейросетями. Значит, можно сделать так, чтобы отличить было невозможно. Для этого поговорим, что из себя вообще представляет контент физически и какую информацию можно о нем получить.
Картинка как файл.
Картинка – это не только само изображение. Это файл, в котором хранится, в том числе, дополнительная информация. Например, где создано это изображение, как называется, когда было создано и т.д. Поэтому, если вы просто сохраните картинку, сделанную нейросетью, и загрузите в свой блог, то и определять ничего не надо будет. Дзен просто прочитает в файле, какой нейросетью он создан.
Остается копия изображения.
Когда вы генерируете изображение, копия остается на сайте нейросети (если, конечно, вы не делаете это на специальном сервере или на своем компьютере). Насколько Дзен имеет доступ к таким копиям, я не знаю, но, теоретически, это возможно. Кроме того, существует возможность сохранять дополнительную информацию в самом изображении, изменяя яркость определенных пикселей. Изображения внешне не будут отличаться одно от другого, но если сравнить цветовой код каждого пикселя, то разница между ними будет из себя представлять любое сообщение, которое можно прочитать. Обычно это делается, чтобы доказать авторство картинки. Но теоретически так же можно записать информацию при генерации нейросетью.
Особенности работы с пикселями.
Каждого художника можно отличить не только по изображению, но и по технической составляющей картины – под каким углом он наносит краску, как изменяется давление и т.д. Можно предложить разным художникам нарисовать копию одной и той же картины, и выглядеть результат будет одинаково, но специалист отличит по техническим особенностям, кто из них какую копию сделал. Так же и с нейросетями. Искусственный интеллект выстраивает пиксели определенным образом по определенному алгоритму. Следы действия этого алгоритма могут быть вычеслены.
Жалоба пользователей.
Хейтеры могут жаловаться, что картинка сгенерирована нейросетью. С одной стороны, картинки от нейросетей не запрещены, но, как мы знаем, теневой бан приходит не за то, что автор делает что-то запрещенное, а потому, что кому-то что-то не понравилось. Поэтому нельзя определенно сказать, что будет, если поступит много жалоб с такой претензией. Тем не менее, это можно считать еще одним способом информировать робота Дзен о том, что картинка сгенерирована нейросетью.
Обучение искусственного интеллекта.
Возможно, что на Толоке появится задание отличить "на глаз", сделана ли картинка нейросетью или иным способом. Имеется ввиду, что картинку будут прелагать оценить большому количеству людей, при этом мнение людей будет считаться правильным, а Искусственный интеллект попытается найти общие признаки у выделенных людьми изображений. Разработчикам Дзена такое вполне может прийти в голову. Думаю, что результат будет плачевный, поскольку человек тоже не может однозначно определить, как сделана картинка. И человек во многом предвзят. Например, по картинке для этой статьи человек легко догадывается, что она сделана нейросетью. А вот если сделать что-то похожее на фотографию, то догадаться будет труднее. Надеюсь, разработчики все же воздержатся от такого абсурдного решения, иначе результат будет непредсказуемым.
Как с этим бороться?
Ответ следует из описания проблемы. Нужно уничтожить следы.
Естественно, не надо ставить иллюстрацию статьи прямо из сохраненного файла. Изображение можно быстро отредактировать. Наклон, небольшое изменение пропорций, цветокоррекция – времени это занимает немного, но информация в пикселях будет утерена. Так же не надо изображение редактировать в том же файле, а котором оно было. Чтобы быть уверенным, что информация в файле не сохранилась, надо создать новый файл и скопировать в него изображение. Еще лучше сделать коллаж, совместить изображение из нейросети с чем-то другим. А чтобы жалобы пользователей не имели силы, не допускайте ситуаций, когда на картинке видны характерные для нейросети недостатки, например, 6 пальцев. (На самом деле такое бывает и в реальных фото, я как-то насчитал 6 пальцев на скриншоте из видео, там просто кадры наложились).
Следует понимать, что искусственный интеллект намного глупее человека. Он не сможет отличить по самому изображению, как оно создано, только исключительно по признакам, которые пользователь ленится удалять.