Добавить в корзинуПозвонить
Найти в Дзене

«Сделано нейросетью» это станет обязательным для всех авторов: почему в России хотят штрафовать за невидимый ИИ в контенте

Я веду текстовые блоги уже очень давно, и больше пяти лет, и за это время привык к разным громким новостям про контент. Но то, что я услышал на этой неделе, заставило меня по-настоящему задуматься о будущем. Депутаты Госдумы всерьез взялись за регулирование искусственного интеллекта. И речь идет не просто о рекомендациях — нас ждет самый настоящий закон об обязательной маркировке ИИ-контента с
Оглавление

Я веду текстовые блоги уже очень давно, и больше пяти лет, и за это время привык к разным громким новостям про контент. Но то, что я услышал на этой неделе, заставило меня по-настоящему задуматься о будущем. Депутаты Госдумы всерьез взялись за регулирование искусственного интеллекта. И речь идет не просто о рекомендациях — нас ждет самый настоящий закон об обязательной маркировке ИИ-контента с реальной ответственностью для нарушителей.

Когда я впервые увидел заголовок новостной статьи «В России хотят ввести наказание за немаркированный ИИ-контент», я, честно говоря, обрадовался. Но только на секунду. А потом включился режим профессионального параноика: «А как это будет работать? Кто и как проверит, писал текст человек или ChatGPT? И главное — не запретят ли нам, обычным авторам, пользоваться удобными инструментами?»

Давайте разбираться по порядку. Я изучил законопроект, нашел выступление инициатора — депутата Николая Новичкова — и теперь расскажу вам всё, как есть. С цифрами, примерами и как всегда без воды.

Что именно хотят маркировать в ии контенте и почему это важно?

Начну с главного. Законопроект, который сейчас разрабатывается в недрах Госдумы, обяжет маркировать любой контент, созданный с помощью искусственного интеллекта. И это не только тексты для блогов или студенческие рефераты. Под действие нормы попадают три большие категории:

  1. Тексты — от новостных заметок до объемных аналитических статей.
  2. Изображения — фото, иллюстрации, инфографика, сгенерированные в Midjourney, Kandinsky или DALL-E.
  3. Музыка и звук — треки, созданные нейросетями вроде Suno или Udio.

Депутат Николай Новичков в своем недавнем интервью подчеркнул простую, но жесткую логику: «Общество имеет право знать, общается ли оно с человеком или с алгоритмом». И с этим трудно спорить.

Я сам пару раз попадался на удочку фейковых новостей, где текст был идеально скроен нейросеткой, а эмоции — подобраны так, чтобы вызвать гнев или восторг. Когда выяснялось, что за этим стоит бездушная модель, обученная на миллионах чужих статей, ощущение обмана оставалось.

Но есть и вторая, более страшная сторона медали. Отсутствие маркировки создает идеальную почву для манипуляций.

Представьте: завтра в интернете появится «официальное заявление» какого-нибудь министра, сгенерированное нейросетью с голосом дипфейка.

Без маркировки миллионы людей примут это за чистую монету. И вот тут закон об обязательной пометке «Создано ИИ» становится не бюрократической прихотью, а вопросом национальной безопасности.

Фото робота собаки, для привлечения вашего внимания.
Фото робота собаки, для привлечения вашего внимания.

Кто ответит, если нейросеть украла чужой текст или картинку?

Вот здесь начинается самое интересное для меня как для автора. Многие мои коллеги-фрилансеры вздохнули с облегчением: «Ну наконец-то! Теперь не придется гадать, покупаешь ты оригинальный текст или пересказ чужой статьи, сделанный GPT-шкой».

Законопроект четко закрепляет правило: использование нейросетей не освобождает от авторских прав. Если алгоритм при генерации текста заимствует чужие уникальные элементы — например, стиль конкретного поэта или сюжетный ход чужой книги — отвечать за плагиат будет тот, кто нажал кнопку «Сгенерировать».

То есть, проще говоря: нейросеть — это инструмент, как фотоаппарат или диктофон. Если вы сфотографировали чужую картину в музее и выдали за свою, виноваты вы. Если нейросеть скомпилировала кусок чужой статьи в свой ответ — виноваты вы, как создатель контента.

Я уже представляю, как юристы потирают руки. Появятся иски от фотографов, чьи снимки без спроса скормили в базу для обучения Stable Diffusion. Искры от художников, чьи стили «утекли» в Midjourney. Но здесь есть и обратная сторона. Многие нейросети обучены на открытых данных, и доказать конкретное заимствование бывает очень сложно. Законопроект эту техническую проблему, увы, не решает. Он только устанавливает принцип: «Ты пользователь — ты и в ответе».

Запретят ли нейросети на территории России совсем? (Спойлер: нет, выдохните)

Самый частый вопрос, который мне задают в комментариях к моим статьям про ИИ: «Нас всех заменят роботами?» И второй, более тревожный: «А не запретят ли их нафиг, чтобы спасти рабочие места?»

Авторы законопроекта говорят прямо: полностью запрещать ИИ-творчество не планируется. И я считаю, что это здравая позиция. Потому что нейросети — это не враг, а помощник. Я сам использую ИИ для генерации идей, для первичной структуры текста, для поиска слабых мест в аргументации. Это как иметь под рукой стажера, который не спит, не ест и знает миллион фактов.

Более того, в Госдуме прекрасно понимают: запретить развитие технологий — значит отбросить страну назад в гонке с США и Китаем. Российские нейросети (взять хотя бы те же YandexGPT или Kandinsky) активно развиваются и встраиваются в бизнес-процессы.

Поэтому цель закона не «задушить», а «промаркировать». Чтобы оставалась возможность отличить человеческое творчество от машинного. Чтобы рынок не захлебнулся в дешевом, бездушном и часто неточном ИИ-мусоре.

А как вообще проверить, нейросеть писала статью или человек? И кто будет ловить?

И вот мы подходим к самому больному месту. Я, как технический специалист, знаю: идеального детектора ИИ-текстов не существует. Ни один из сервисов — ни GPTZero, ни Turnitin, ни российские аналоги — не дает 100% точности.

Почему? Потому что современные нейросети специально обучают имитировать человеческую непредсказуемость. Они вставляют опечатки, меняют длину предложений, даже «забывают» запятые, чтобы походить на живого человека. С другой стороны, многие люди пишут настолько ровно и сухо, что их текст любой детектор с вероятностью 95% определит как «машинный».

Что же предлагают депутаты? Пока внятного ответа нет. Скорее всего, бремя доказывания ляжет на того, кто обвиняет в отсутствии маркировки. И тут начинается юридическая казуистика.

Мой прогноз: первое время будут наказывать только «криминально очевидные» случаи. Например, когда в паблике выложили трек, где сгенерированный вокал поет про Путина, а маркировки нет. Или когда СМИ публикует полностью синтезированную новость про теракт, которого не было.

За контролем, вероятно, будут следить Роскомнадзор и экспертная комиссия при Минцифры. Но честно: я не представляю, как они проверят каждый пост в Telegram-канале или каждый ролик в TikTok. Скорее всего, система будет работать по жалобам.

Что грозит нарушителям? Штрафы, блокировки и репутационные риски

Законопроект пока не опубликовал конкретных сумм штрафов, но эксперты, с которыми я общался, называют диапазон: от 30 до 500 тысяч рублей для физических лиц и до нескольких миллионов для юридических. Это сопоставимо с наказанием за распространение недостоверной общественно значимой информации.

Но главное наказание — даже не деньги. Для блогера или СМИ, который попался на немаркированном ИИ-контенте, репутационный удар может быть фатальным. Аудитория очень быстро учится отличать «честных» авторов от тех, кто экономит на маркировке.

Кроме того, в законе может появиться механизм блокировки. Если владелец сайта систематически игнорирует требование маркировать ИИ-контент, Роскомнадзор вправе ограничить доступ к ресурсу до устранения нарушений. Для коммерческих проектов это смертельный приговор.

Что делать мне и вам уже сейчас?

Я для себя уже решил: не буду ждать, пока закон примут (а это, по прогнозам, может случиться уже к концу 2026 года). Я начинаю маркировать свой ИИ-контент добровольно. Почему? По трем причинам.

  • Первое: доверие. Я хочу, чтобы мои читатели знали: если стоит пометка «Создано при участии нейросети» — значит, я проверил факты и отвечаю за каждую цифру. Если пометки нет — значит, текст полностью мой, со всеми моими живыми огрехами и интонациями.
  • Второе: безопасность. Когда закон вступит в силу, у меня уже будет привычка. Я не попаду под раздачу из-за того, что забыл поставить одну строчку в конце статьи.
  • Третье: честность перед другими авторами. Если я генерирую картинку для обложки в нейросети, я указываю это. Потому что реальный художник потратил бы на нее два дня, и его труд нельзя обесценивать молчанием алгоритма.

ИИ-контент разрешен, но требует честности

Подведем черту. Законопроект об обязательной маркировке ИИ-контента — это не запрет и не паника. Это попытка навести порядок в диком поле, которое стремительно превращается в минное.

Как человек, который каждый день работает с текстами и технологиями, я говорю: да, закон сырой. Да, технически его трудно исполнить. Но сама идея — честно предупреждать читателя, что перед ним не человек, а алгоритм — абсолютно правильная.

Нейросети уже изменили нашу реальность. Они здесь и останутся надолго. Вопрос только в том, будем ли мы использовать их как прозрачный инструмент или как невидимое оружие обмана.

Я выбираю прозрачность. А вы?

P.S. Если вы хотите быть в курсе, как именно изменят законопроект до второго чтения, — подпишитесь на этот канал. Я слежу за всеми поправками и рассказываю простым языком, что они значат для обычных авторов, блогеров и бизнесменов. Не дайте себя обмануть — и не обманывайте других. Сделано ИИ? Скажите честно.

Мои соцсети: MAX | ВКонтакте