Я веду текстовые блоги уже очень давно, и больше пяти лет, и за это время привык к разным громким новостям про контент. Но то, что я услышал на этой неделе, заставило меня по-настоящему задуматься о будущем. Депутаты Госдумы всерьез взялись за регулирование искусственного интеллекта. И речь идет не просто о рекомендациях — нас ждет самый настоящий закон об обязательной маркировке ИИ-контента с реальной ответственностью для нарушителей.
Когда я впервые увидел заголовок новостной статьи «В России хотят ввести наказание за немаркированный ИИ-контент», я, честно говоря, обрадовался. Но только на секунду. А потом включился режим профессионального параноика: «А как это будет работать? Кто и как проверит, писал текст человек или ChatGPT? И главное — не запретят ли нам, обычным авторам, пользоваться удобными инструментами?»
Давайте разбираться по порядку. Я изучил законопроект, нашел выступление инициатора — депутата Николая Новичкова — и теперь расскажу вам всё, как есть. С цифрами, примерами и как всегда без воды.
Что именно хотят маркировать в ии контенте и почему это важно?
Начну с главного. Законопроект, который сейчас разрабатывается в недрах Госдумы, обяжет маркировать любой контент, созданный с помощью искусственного интеллекта. И это не только тексты для блогов или студенческие рефераты. Под действие нормы попадают три большие категории:
- Тексты — от новостных заметок до объемных аналитических статей.
- Изображения — фото, иллюстрации, инфографика, сгенерированные в Midjourney, Kandinsky или DALL-E.
- Музыка и звук — треки, созданные нейросетями вроде Suno или Udio.
Депутат Николай Новичков в своем недавнем интервью подчеркнул простую, но жесткую логику: «Общество имеет право знать, общается ли оно с человеком или с алгоритмом». И с этим трудно спорить.
Я сам пару раз попадался на удочку фейковых новостей, где текст был идеально скроен нейросеткой, а эмоции — подобраны так, чтобы вызвать гнев или восторг. Когда выяснялось, что за этим стоит бездушная модель, обученная на миллионах чужих статей, ощущение обмана оставалось.
Но есть и вторая, более страшная сторона медали. Отсутствие маркировки создает идеальную почву для манипуляций.
Представьте: завтра в интернете появится «официальное заявление» какого-нибудь министра, сгенерированное нейросетью с голосом дипфейка.
Без маркировки миллионы людей примут это за чистую монету. И вот тут закон об обязательной пометке «Создано ИИ» становится не бюрократической прихотью, а вопросом национальной безопасности.
Кто ответит, если нейросеть украла чужой текст или картинку?
Вот здесь начинается самое интересное для меня как для автора. Многие мои коллеги-фрилансеры вздохнули с облегчением: «Ну наконец-то! Теперь не придется гадать, покупаешь ты оригинальный текст или пересказ чужой статьи, сделанный GPT-шкой».
Законопроект четко закрепляет правило: использование нейросетей не освобождает от авторских прав. Если алгоритм при генерации текста заимствует чужие уникальные элементы — например, стиль конкретного поэта или сюжетный ход чужой книги — отвечать за плагиат будет тот, кто нажал кнопку «Сгенерировать».
То есть, проще говоря: нейросеть — это инструмент, как фотоаппарат или диктофон. Если вы сфотографировали чужую картину в музее и выдали за свою, виноваты вы. Если нейросеть скомпилировала кусок чужой статьи в свой ответ — виноваты вы, как создатель контента.
Я уже представляю, как юристы потирают руки. Появятся иски от фотографов, чьи снимки без спроса скормили в базу для обучения Stable Diffusion. Искры от художников, чьи стили «утекли» в Midjourney. Но здесь есть и обратная сторона. Многие нейросети обучены на открытых данных, и доказать конкретное заимствование бывает очень сложно. Законопроект эту техническую проблему, увы, не решает. Он только устанавливает принцип: «Ты пользователь — ты и в ответе».
Запретят ли нейросети на территории России совсем? (Спойлер: нет, выдохните)
Самый частый вопрос, который мне задают в комментариях к моим статьям про ИИ: «Нас всех заменят роботами?» И второй, более тревожный: «А не запретят ли их нафиг, чтобы спасти рабочие места?»
Авторы законопроекта говорят прямо: полностью запрещать ИИ-творчество не планируется. И я считаю, что это здравая позиция. Потому что нейросети — это не враг, а помощник. Я сам использую ИИ для генерации идей, для первичной структуры текста, для поиска слабых мест в аргументации. Это как иметь под рукой стажера, который не спит, не ест и знает миллион фактов.
Более того, в Госдуме прекрасно понимают: запретить развитие технологий — значит отбросить страну назад в гонке с США и Китаем. Российские нейросети (взять хотя бы те же YandexGPT или Kandinsky) активно развиваются и встраиваются в бизнес-процессы.
Поэтому цель закона не «задушить», а «промаркировать». Чтобы оставалась возможность отличить человеческое творчество от машинного. Чтобы рынок не захлебнулся в дешевом, бездушном и часто неточном ИИ-мусоре.
А как вообще проверить, нейросеть писала статью или человек? И кто будет ловить?
И вот мы подходим к самому больному месту. Я, как технический специалист, знаю: идеального детектора ИИ-текстов не существует. Ни один из сервисов — ни GPTZero, ни Turnitin, ни российские аналоги — не дает 100% точности.
Почему? Потому что современные нейросети специально обучают имитировать человеческую непредсказуемость. Они вставляют опечатки, меняют длину предложений, даже «забывают» запятые, чтобы походить на живого человека. С другой стороны, многие люди пишут настолько ровно и сухо, что их текст любой детектор с вероятностью 95% определит как «машинный».
Что же предлагают депутаты? Пока внятного ответа нет. Скорее всего, бремя доказывания ляжет на того, кто обвиняет в отсутствии маркировки. И тут начинается юридическая казуистика.
Мой прогноз: первое время будут наказывать только «криминально очевидные» случаи. Например, когда в паблике выложили трек, где сгенерированный вокал поет про Путина, а маркировки нет. Или когда СМИ публикует полностью синтезированную новость про теракт, которого не было.
За контролем, вероятно, будут следить Роскомнадзор и экспертная комиссия при Минцифры. Но честно: я не представляю, как они проверят каждый пост в Telegram-канале или каждый ролик в TikTok. Скорее всего, система будет работать по жалобам.
Что грозит нарушителям? Штрафы, блокировки и репутационные риски
Законопроект пока не опубликовал конкретных сумм штрафов, но эксперты, с которыми я общался, называют диапазон: от 30 до 500 тысяч рублей для физических лиц и до нескольких миллионов для юридических. Это сопоставимо с наказанием за распространение недостоверной общественно значимой информации.
Но главное наказание — даже не деньги. Для блогера или СМИ, который попался на немаркированном ИИ-контенте, репутационный удар может быть фатальным. Аудитория очень быстро учится отличать «честных» авторов от тех, кто экономит на маркировке.
Кроме того, в законе может появиться механизм блокировки. Если владелец сайта систематически игнорирует требование маркировать ИИ-контент, Роскомнадзор вправе ограничить доступ к ресурсу до устранения нарушений. Для коммерческих проектов это смертельный приговор.
Что делать мне и вам уже сейчас?
Я для себя уже решил: не буду ждать, пока закон примут (а это, по прогнозам, может случиться уже к концу 2026 года). Я начинаю маркировать свой ИИ-контент добровольно. Почему? По трем причинам.
- Первое: доверие. Я хочу, чтобы мои читатели знали: если стоит пометка «Создано при участии нейросети» — значит, я проверил факты и отвечаю за каждую цифру. Если пометки нет — значит, текст полностью мой, со всеми моими живыми огрехами и интонациями.
- Второе: безопасность. Когда закон вступит в силу, у меня уже будет привычка. Я не попаду под раздачу из-за того, что забыл поставить одну строчку в конце статьи.
- Третье: честность перед другими авторами. Если я генерирую картинку для обложки в нейросети, я указываю это. Потому что реальный художник потратил бы на нее два дня, и его труд нельзя обесценивать молчанием алгоритма.
ИИ-контент разрешен, но требует честности
Подведем черту. Законопроект об обязательной маркировке ИИ-контента — это не запрет и не паника. Это попытка навести порядок в диком поле, которое стремительно превращается в минное.
Как человек, который каждый день работает с текстами и технологиями, я говорю: да, закон сырой. Да, технически его трудно исполнить. Но сама идея — честно предупреждать читателя, что перед ним не человек, а алгоритм — абсолютно правильная.
Нейросети уже изменили нашу реальность. Они здесь и останутся надолго. Вопрос только в том, будем ли мы использовать их как прозрачный инструмент или как невидимое оружие обмана.
Я выбираю прозрачность. А вы?
P.S. Если вы хотите быть в курсе, как именно изменят законопроект до второго чтения, — подпишитесь на этот канал. Я слежу за всеми поправками и рассказываю простым языком, что они значат для обычных авторов, блогеров и бизнесменов. Не дайте себя обмануть — и не обманывайте других. Сделано ИИ? Скажите честно.