Прислали мне новость о том, что законопроект, который должен был в перспективе обязать маркировать весь видео-контент, созданный с помощью ИИ - был-таки отклонен. Мол, прокомментируйте, а лучше - покритикуйте. Ваша же тема.
Увы, сегодня опять выйдет как с тем самым медведем из анекдота. Нет, видео снова давать не буду - можете просто почитать статью как его сделали с помощью ИИ. И даже промаркировали, ага. Можете сами попробовать.
Обсуждаемую новость иллюстрирую скриншотом с сайта "Ведомостей".
Несмотря на то, что лично у меня была практически полная уверенность в том, что его примут (уж больно модно в последнее время маркировать/ограничивать), случилось разумное.
Я уже видел возмущения, что это "безобразие, весь контент должен маркироваться, это нарушает священные права художников-писателей-фотографов" и так далее.
Ну все в том духе, что мы недавно уже читали:
Причина-то в чем?
А причина именно в избыточности.
Вопрос первый. КАК это контролировать? И кому?
Ок, обязали мы соц.сети и видеохостинги маркировать все видео, где был задействован ИИ. А что делать для того, чтобы они это делать НАЧАЛИ? Правильно - вводить ответственность! К
А как у нас вводится ответственность за то, что избыточно и существует лишь на бумаге? Плохо вводится. Будет либо полное неисполнение с существованием закона на бумаге, либо неисполнение неполное - но с драконовскими штрафами для острастки тем, кому не сильно повезло/на кого пожаловались. Как сейчас, например, обстоят дела с маркировкой рекламы. И с которой, хотя бы, основной профит не в штрафах, а в сборах и налогах!
Но ладно, если что-то надо запретить - берут и запрещают, на то у государства механизмы есть. Штраф в полмульена и все как побегут, ух! Только вот... есть еще ДВА важных вопроса.
Вопрос второй. А что такое ИИ-контент?
Ладно еще, когда я пошел, да и сгенерировал видео с нуля. Кота едущего на самокате сложно спутать с настоящим.
А если я с помощью ИИ цветность/разрешение поднял? Или убрал бракованные элементы в верстке? Например, с реального видео убрал ни к месту выскочившего в кадр человека. Или фон удалил, наложив в редакторе другой? Небо покрасивше, к примеру. Это уже ИИ-контент или еще нет?
Я слышал, что предлагают считать ИИ-контентом только сгенерированное с нуля. Ок.
Берем реальное видео улицы Москвы и добавляем туда обезьяну на гироскутере. Или пьяного Васю-уважаемого-человека. Это ИИ-контент? Так там же часть видео реальная!
А в чем его отличие от видео, где я просто изменил разрешение/фон/цвет/деталь с помощью ИИ?
Маркировать в принципе всё, чего коснулся ИИ? Ну-у-у... получим 90% "это ИИ" и еще 10% - от хитрецов, которые уверены в своей непогрешимости и в том, что "их ИИ" - не распознают.
Ответов тут нет. Я их не дам. И никто не даст так, чтобы исключить 100500 если и охватив хотя бы 90% ситуаций.
И третий вопрос. Самый важный. А КТО и КАК будет определять - ИИ это или же не ИИ?
Я, помнится, в ТГ кидал интересные результаты исследований, где "топовые" мировые генеративные модели заставляли выявлять ИИ-шные видео друг-от-друга.
Вот этот пост, скринирую, ибо ТГ скорее мертв, чем жив:
Осознаем, да? В 7-8 случаях (!!) САМ ИИ ошибается в определении того, что создано ИИ. Не той самой моделью, а его соседом. И это "топы" в мире нейросетей!
Человек, конечно, с экспертными навыками справится лучше, определит в 7-8 случаях. Возможно. Потратив в десятки раз больше времени. И лишь "пока что".
Но... кто будет платить за то, чтобы сотни или тысячи таких человек с определенными навыками мониторили миллионы видео, которые именно из-за ИИ плодятся как кролики? Соц.сети? Ну ладненько. Как они будут это делать - то, конечно же, не ваши проблемы.
А Вы готовы платить за подписку не 150 р., чтобы рекламы не было, а 500 сразу? И не "по выбору", а обязательно? За каждую? Нет? Ну, ладненько еще раз. Намек, я думаю, понятен.
Послевкусие...
В результате описанного я-таки выражаю г-ну Горелкину из ИТ-комитета Думы свой почет и уважение. Редкая техническая разумность, без шуток. Надеюсь, не временная до очередного громкого фейка или ЧП, где косвенно будет маячить ИИ.
Ибо принятие закона об обязательной маркировке ИИ-контента в нынешних реалиях повлечет абсолютный хаос и фактическую неисполнимость, поскольку выявить серьезные нейросетевые видео - задача не из легких и неминуемо будут ошибки, которые повлекут бессмысленные штрафы и все тому прочее. Их и так хватает.
А Президент наш недавно, напомню, дал поручение "создавать условия, а не препоны, для развития ИИ" и внедрять его во всех сферах.
Поэтому стоит сей вопрос отложить до тех времен, когда идентификация ИИ силами ИИ станет безусловной. Или достоверной хотя бы на 80-90%. Если станет, в чем я ОЧЕНЬ сильно сомневаюсь.
Один запрещенный видеограмм (да и не только он) уже пытается маркировать такие видео. Совсем очевидные. Или по жалобам смотрящих. Но в ленте сотни видосов, которые ТЫ осознаешь и видишь нейросетевыми, но не система модерации. А есть и продукты, созданные с помощью платного инструмента, которые либо в принципе сложно идентифицировать или же возможно, но с 5-6 попытки внимательного просмотра.
И ради всего разумного - не нужно становится в позу пафоса и изрекать, мол, "Да только полный *ругательство* не заметит нейроконтент! Как два пальца!". Три ха-ха-ха.
Ваш покорный слуга на днях тест у опытного нейрокреатора в канале прошел. Из 10 видео я 5 идентифицировал "нейронными". По итогу в 4 из 10 я ошибся. В "нейронные" записал 2 реальных, а еще 2 - посчитал реальными, тогда как они - нейросетевые. Итого 60%. У человека, который уже сильно больше 15 часов таких видео нагенерировал. У обывателя, далекого от самостоятельной работы с ИИ, будет 30%. В лучшем случае...
Потому что всего лишь в августе прошлого года из чуть менее 900 человек, принявших участие в похожем эксперименте (выявляли "живую" девушку среди "нейронных"), только лишь почти 50% уверенно определили нейроконтент. Примитивный, почти годичной давности, на "бесплатных" мощностях.
Вот результаты опроса:
А вот и сам ролик (в ВК).
С фото будет примерно так же, даже хуже. При условии, конечно, что генерировать будем не "Алисой". Эксперименты с "достоверностью" от разных нейросетей мы уже делали - уровень, как говорится, налицо.
Несмотря на выявленные неточности - довести результат до состояния, близкого к идеалу, цена лишь 3-4 запросов.
Так что... некому массово выявлять-определять ИИ, если даже это прописать в законе. Будет что-то вроде модерации в Д3ене 😈
Об ответственности...
Вместе с тем, по ряду статей КоАП и УК РФ в обозримом будущем, а лучше - сразу в раздел отягчающих обстоятельств, следует внести использование искусственного интеллекта в преступной деятельности именно как отягчающий фактор.
- Опорочил честь другого человека с помощью ИИ? +2 года к сроку.
- Мошенничество с использованием дипфейка? Тяжесть статьи на планку вверх.
- Общественный резонанс в отдельно взятом населенном пункте, как история с бегающим тигром? Статья + взыскание всех расходов на реагирование спецслужб.
И так далее. Вот эти изменения я поддерживаю и ратую.
Поскольку ИИ - это не только котики на самокате, а серьезный и в преступных руках - опасный инструмент. Возможно даже оружие. И отвечать, вопреки постоянным нападкам на ИИ, который "помог что-то сделать, сказал не то и дал не тот совет", должен не производитель инструмента, а его пользователь.
Мы же не сажаем производителей ножей за совершенный с использованием их продуктов криминал?! Вот когда нож САМ взбесится - тогда уже вопросы к производителю.
Ну и, осторожно, ввел бы некоторые ограничения для использования медийного ИИ для СМИ. Точнее даже не ограничения - а обязательство информировать об инструментарии. Но то вопрос дискуссионный и спорный.
Маркировка же текстов, созданных с использованием ИИ, полная и абсолютная утопия. По тем же самым причинам/вопросам, только они еще более "усугубляемые".
Такие вот дела.
С осознанием того, что приличное число читателей меня не поддержит и с обязательством мнению оных никак не мешать. За исключением неуважительных кадров =)
"Нравлик" по традиции, остальное - как желаете...
Донаты автору, "Стеллы" для продвижения материала и подписки ниже - приветствуются: