Когда появились нейросети, сначала многие относились к ним как к игрушке – забавные картинки, тексты, все можно посмотреть и забыть. Но прошло совсем немного времени, и стало ясно: это уже инструмент, который влияет на информацию, культуру, образование и даже наше восприятие реальности. Если машина может писать статьи, генерировать фото и имитировать чужой стиль, то встает простой, но важный вопрос – как понять, где работа человека, а где работа алгоритма?
Идеологическая часть
Я считаю, что помечать контент, созданный нейросетями, нужно по нескольким причинам. Во-первых, это вопрос честности. Когда человек видит текст или картинку, он должен понимать, кто за этим стоит. Это не про запреты и контроль, это про уважение к читателю. Одно дело – читать текст, написанный человеком, вложившим эмоции и опыт, и совсем другое – обработанный алгоритмом набор данных, где эмоции могут быть только сымитированы.
Во-вторых, это вопрос ответственности. Машина не несет моральной ответственности за сказанное. Она может ошибиться, сказать глупость, выдать чью-то фразу или идею как свою, и при этом не почувствует никакой вины, а последствия лягут на того, кто это опубликовал. Отсюда возникает логичное требование: читатель должен видеть, что перед ним – текст, созданный программой, чтобы не приписывать машине то, что она не делала.
Третья важная причина – мы постепенно привыкаем к тому, что машина говорит уверенно и гладко. Часто даже слишком гладко. Нейросети не знают сомнения, не ставят паузы, не пропускают слова, не устают и не волнуются. Человек, который постоянно потребляет такой контент без понимания его природы, может начать ощущать дискомфорт от своей «неспособности» быть таким идеальным. Указание того, что текст или изображение сделаны нейросетью, помогает сохранить честную планку ожиданий – люди остаются людьми, и это нормально.
Еще одна причина связана с творчеством. Машина не создает с нуля, она перерабатывает опыт миллионов других работ. Если не указывать источник генерации, возможна путаница: кому принадлежит идея, стиль, композиция, образ. Пометка избавляет и автора, и аудиторию от недоразумений. Она не умаляет ценность результата, просто ставит все на свои места.
Но, пожалуй, самое главное – мы живем в эпоху, когда реальность становится смешанной. Между человеческим и искусственным уже нет четкой границы, и наша задача – научиться в этом мире ориентироваться. Помечать контент, созданный нейросетью, – это способ не потерять ориентиры, не запутаться, не дать себе забыть, что человек и искусственный интеллект – разные сущности. Мы можем сотрудничать, можем помогать друг другу, но нужно помнить, кто есть кто.
Когда мы отмечаем «сделано нейросетью», мы не унижаем технологию. Скорее наоборот – мы признаем, что это новый и самостоятельный способ создания информации. Но пока машинный разум не стал настоящим разумом, люди должны сохранять свою идентичность и свою ответственность. А честная пометка – один из простейших и самых цивилизованных способов это сделать.
Но помечать такой контент – это не только личная позиция автора или вопрос этики. Со временем требования к прозрачности начали формулировать и крупные площадки. И одной из первых, кто вышел с этим в публичное поле, стал YouTube.
Платформа столкнулась с очень простой, но серьезной проблемой: люди начали массово загружать ролики, созданные нейросетями, и зрители не всегда понимали, что смотрят. Искусственный голос звучал почти как человеческий, лица в кадре выглядели реальными, новости и заявления могли быть смонтированы без участия живого журналиста. На словах это забавно, но на практике возник риск подмены реальности. Когда любой компьютер может создать речь политика, концерт певца или репортаж с несуществующего события, зрителю нужно хотя бы знать, что он смотрит.
Для YouTube здесь важно сразу несколько вещей.
- Во-первых, платформа несет репутационную ответственность. Если зрители перестанут доверять тому, что видят и слышат в роликах, потеряет не только один автор – потеряет вся экосистема. YouTube не может позволить себе место, где каждый второй ролик – искусственная «новость», выдаваемая за настоящую. Поэтому требование обозначать AI-контент – это способ сохранить доверие аудитории.
- Во-вторых, это защита от манипуляций. Сегодня любой человек может создать ролик, где известный актер говорит то, чего никогда не говорил. Или сделать эмоциональное обращение, которое выглядит правдоподобно, но полностью сгенерировано из ничего. Без пометки зритель может принять это за факт, переслать друзьям, сделать неверные выводы. YouTube предпочитает заранее снижать риски и ставить предупреждение: «В этом видео есть элементы, созданные с помощью ИИ». Это помогает зрителю не воспринимать увиденное автоматически на веру.
- В-третьих, YouTube понимает, что AI-инструменты – это уже не игрушка, а полноценный инструмент для массового производства контента. И лучше сразу научиться обращаться с ним так же ответственно, как с камерой, монтажом или журналистикой. Если на видео присутствуют сцены, которых никогда не было в реальности, это нужно обозначать. Если голос сгенерирован – тоже. В этом нет запрета, просто честная декларация.
А как именно YouTube это делает? Процесс довольно простой и прозрачный. В раздел загрузки ролика добавили специальный пункт, где автор указывает, использовал ли он в видео элементы «реалистичного синтетического контента» – то есть такого, который может быть воспринят как настоящий. Это могут быть:
- сгенерированные лица или образы людей,
- синтезированный голос, особенно если он звучит как реальный человек,
- сцены, которые выглядят документально, но на самом деле созданы нейросетью,
- словесные или визуальные заявления, которые могли бы вводить людей в заблуждение.
Автор ставит галочку, и YouTube автоматически добавляет зрителю уведомление – аккуратное, без обвинений и скандала, но видимое и понятное. Такая пометка появляется рядом с роликом или под ним, чтобы зритель мог принять собственное решение, как относиться к увиденному.
Важно и другое: YouTube не запрещает использовать нейросети. Напротив – платформа официально признает их современным инструментом, который может быть творческим, полезным и интересным. Но она требует честности. Если ты используешь ИИ для генерации голосов, роликов, изображений или событий, которые выглядят как реальные, зритель должен знать это заранее. И это, на мой взгляд, правильный и зрелый подход.
Мы приближаемся к моменту, когда видео, тексты, фотографии и даже прямые эфиры могут быть сгенерированы так качественно, что отличить их от реальных станет почти невозможно. В этой ситуации маркировка перестает быть просто формальностью. Это становится способом сохранить доверие между зрителем и создателем. Если зритель понимает, что ролик сделан нейросетью, он строит свое отношение к нему иначе – более спокойно, разумно и с пониманием контекста.
Человечество уже много раз сталкивалось с новыми технологиями, которые меняли правила игры. Печатный станок, фотоаппараты, телевидение, интернет – все сначала вызывали страх, недоумение, сопротивление. Но затем люди учились ими пользоваться. И сейчас мы на таком же переходе, только на новом уровне. Искусственный интеллект стал не просто инструментом, а участником создания контента, и YouTube делает первый логичный шаг – вводит правила, которые помогут всем к этому адаптироваться.
И в России тоже не обошли тему маркировки ИИ-контента. В Госдуме уже внесены как минимум два законопроекта, предусматривающих обязательную пометку «синтетического материала» — видео, изображений или голосов, сгенерированных нейросетью. Коммерсанть
По предложению депутатов (в том числе из фракции «Справедливая Россия») такие материалы должны содержать надпись вроде «создано с использованием искусственного интеллекта», а в метаданных файла — «машиночитаемую метку» с данными о владельце ресурса, дате создания и сведениями об ИИ. AdIndex+1
При этом за отсутствие метки планируются штрафы: от 10 000 до 500 000 руб., в зависимости от типа нарушителя (физическое лицо, должностное лицо, юридическое лицо). Коммерсанть
Другая инициатива — блокировать «мошеннический» ИИ-контент: в Госдуме обсуждают внесение поправок в закон «Об информации», чтобы выявлять и удалять ИИ-материалы, которые используются для клеветы, вымогательства и других противоправных действий. Известия
Ну, что тут сказать, я абсолютно согласен с тем, что такие меры надо принимать, причем именно на законных основаниях. Но на практике я столкнулся с неприятием и нежеланием шевелиться наших же, Российских провайдеров видеоконтента.
За оследний год несколько раз предлагал ввести такую маркировку и на Дзене, и на РуТубе, но везде получал "отлуп" в стиле "Отвали, нам и так неплохо... это твои проблемы"...
Недавно эта же инициатива (как видите!) поднялась и в Госдуме. Я снова повторил свои просьбы и к Дзену, и к РуТУбу с просьбой хоть как то соединить меня с техническими службами, чтобы мы могли хоть как-то выработать технологию пометки такового контента т договориться о форматах пометки таких материалов.
Я даже написал в Дзен, что, мол, принимается Закон в Госдуме, поэтому можно быть начать даже и без принятия закона. ВОТ что получил в ответ 16.11.2025.
РуТуб отвечает аналогично:
Ну, на РуТубе я вышел из положения просто введя автоматическое заполнение поля "Описание", куда автоматом вставляется к каждому размещаемому ролику надпись "Видео и аудио сгенерировано" нейросетью":
А вот с Дзеном никак не получается, хотя я их минимум как ГОД (!!!) прошу просто ввести "галочку" под роликом, где ее проставление означало бы "Создано с помощью нейросети". Никто не хочет идти на контакт и чем-то заниматься, все рассматривают это как "лишнее шевеление", и "не больно то и хотелось". А вручную вбивать под каждым роликом - руки отвалятся (((
Так что, дорогие мои, отсутствие подобной маркировки в России и на Российских площадках пока упирается В ПОЛНОЕ НЕЖЕЛАНИЕ ЧТО-ТО РАЗУМНОЕ СДЕЛАТЬ САМИМ, пока, как говорится, "Гром не грянет, мужик не перекрестится".
Как "пробить" эту маркировку я просто НЕ ЗНАЮ... (((
Техническая часть
Сегодня в мире появилось несколько подходов к автоматической маркировке контента, созданного или измененного нейросетями. Наиболее заметным и быстро развивающимся считается стандарт C2PA — это открытая система, разработанная международной коалицией, куда входят крупные компании и медиа.
Его идея проста: при создании изображения, видео, текста или аудио к файлу добавляется специальный криптографически подписанный манифест. Он хранит информацию о том, где, когда и каким образом был создан контент, и использовались ли инструменты искусственного интеллекта. Такой манифест невозможно подделать незаметно, потому что цифровая подпись позволяет проверить подлинность данных.
Просмотрщик может сразу сообщить пользователю, является ли файл оригинальным или в его метаданные вносились изменения. Этот подход хорош тем, что он универсален, не зависит от конкретной платформы и работает прямо на уровне файла. Однако у него есть важное ограничение: если человек намеренно пытается скрыть происхождение изображения или видео, он может просто пережать или пересохранить его в формате, который не сохраняет метаданные, и след исчезнет.
Параллельно развивается другой подход, предложенный Google и DeepMind, под названием SynthID. Он работает как цифровой водяной знак, только невидимый для человеческого глаза или уха. Водяная метка встраивается в изображение, аудио или даже текст на уровне модели. Например, в тексте это может быть последовательность токенов, которую можно распознать специальной программой.
Преимущество в том, что такой знак сохраняется даже после обработки файла — например, при сжатии, кропе или небольшом изменении изображения. В одном из докладов исследователи Google отмечали, что стандарт уже применялся на огромных данных и оказался достаточно устойчивым к попыткам легкой модификации. Но и тут есть недостатки — детектирование работает вероятностно, и всегда остается небольшой процент случаев, когда система ответит неопределенно. Кроме того, такой метод также можно попытаться «сломать», добавив крупные изменения, шум или полностью переработав файл алгоритмически.
Регулирование тоже развивается. В Европейском союзе в рамках принятого закона об искусственном интеллекте определена необходимость маркировки синтетических материалов, причем делается акцент на том, что методы пометки должны быть надежными, повторяемыми и совместимыми.
В Китае уже действует обязательный национальный стандарт маркировки ИИ-контента: в стране требуют, чтобы любая созданная нейросетью картинка, звук, видео или текст имели как визуальную, так и скрытую метку, и это распространяется на работу всех популярных сервисов.
В целом можно сказать, что в мире сейчас формируется система из двух типов технологий. Одни опираются на честность создателя и метаданные, встроенные в файл, другие пытаются защитить контент от подделки даже без участия человека. Первые хороши тем, что просты и совместимы, вторые — тем, что живут в самом цифровом материале и не исчезают так просто. Но ни одна система пока не является абсолютной, и борьба между инструментами маркировки и методами их обхода, вероятно, будет продолжаться еще долго.
Технология метаданных
Внутри любого видеоролика находятся скрытые служебные данные, которые обычный зритель не видит. Они называются метаданными. Это своего рода «паспорт» файла, набор сведений, описывающих его происхождение и структуру. Исторически в них записывали технические параметры: разрешение, длительность, кодек, дату создания, камеру, частоту кадров, битрейт, версию программы монтажа и многое другое. Профессиональные видеоредакторы и медиасерверы как раз читают эти данные, чтобы правильно воспроизводить ролик и понимать, с чем имеют дело.
Со временем метаданные стали использовать и для другой задачи — фиксации авторства и подтверждения подлинности. Видеофайл может содержать информацию о владельце, правеобладателе, лицензии, специфические идентификаторы, номер устройства, GPS-координаты места съемки. Часть программ может сохранять туда даже историю обработки: какой монтажер изменял сцены, какой фильтр накладывался, в каком редакторе проходил финальный экспорт.
Та же область сегодня начинает применяться и для маркировки синтетического материала. Если платформа или автор хотят честно указать, что видео полностью или частично создано нейросетью, это можно сделать прямо внутри файла. Для этого в метаданные добавляется поле, где прописывается факт использования алгоритма, название модели, дата генерации или редактирования, иногда хеш-значение, которое позволяет проверить подлинность данных и убедиться, что ролик не был изменен после маркировки. Такой подход не требует видимых надписей на экране — он работает на уровне «внутренней информации», которую может прочитать программа проверки или сервис хранения.
Современные стандарты криптографической маркировки вроде C2PA дополняют эту идею. Внутри файла сохраняется так называемый манифест — небольшая структура данных, которая содержит цифровую подпись и перечень шагов, через которые прошел контент. Там может быть записано, что сначала был загружен исходник, затем поверх него сгенерирована речь синтетическим голосом, позже применен фильтр, а экспорт произведен в определенную дату. Эти данные можно проверить и убедиться, что они не были подделаны.
Главный плюс такого способа в том, что он не мешает просмотру и не изменяет само изображение или звук. Но есть и минус: если пользователь хочет скрыть факт происхождения файла, он может пересжать ролик или удалить метаданные. Многие форматы допускают такой вариант без каких-либо сложностей. Поэтому сегодня идет поиск баланса — одни компании делают ставку на невидимые метки, встроенные прямо в пиксели или звук, другие продолжают развивать прозрачную и честную маркировку через метаданные. Скорее всего, в будущем будут использоваться оба подхода одновременно, чтобы обеспечить и сохранность сведений, и удобство проверки.
Поскольку вопрос маркировки видеофайлов для видеоплощадок является очень актуальным и технически сложным, мне и хотелось как-тосвязаться с техническим персоналом Дзена и РуТуба чтобы вместе хоть как-то выработать технологию пометки синтетического контента. Как миниум хотя бы договориться о местах, в которых следует размещать такую маркировку, чтобы при загрузке файлов их автоматика могла бы такую маркировку программно прочитать.
Но никто не хочет идти на контакт!
Последнее, что было мною сделано, это высланы образцы видеофайлов с пометкой в метатегах о том, что это ситетический контент, файлы размещены в инете и выслано обращение к техслужбам Рутуба и Дзена о том, смогут ли они прочитать эти маркировки... но пока тишина...
Так что не от меня это зависит, а от элементарного нежелания ни РуТуба, ни Дзена этим вопросом заниматься ВООБЩЕ!!! Увы... (((
А у меня все уже готово и заже инструменты все написаны для решения этого вопроса.
Будем ждать пока гром грянет...
P.S.
Кто интересуется вопросом работы с метаданными, софт и информацию смотрите хотя бы тут: https://exiftool.org
P.P.S.
От себя добавлю, что отныне, независимо от принятых или непринятых Законов, от желания или нежелания различных хостеров, весь контент, выходящий и публикуемый "NStor" маркируется на двух языках обозначениями:
- Сгенерировано/изменено нейросетью
- Modified content; generated/edited with AI
... внутри самих файлов!
Чьи "техники" захотят найти эти маркировки, найдут, а мне надоело в закрытые двери стучаться. Теперь, если вам что-то надо, сами стучитесь ко мне.