Найти в Дзене
SON AI studio

Обсуждали маркировку ИИ, а напугали всех подряд

В феврале 2026 года я несколько дней подряд наблюдал, как в инфополе резко всплыло обсуждение будущего закона об ИИ — и довольно быстро стало ясно: речь идёт не только про технологии. В этом тексте я разберу, что именно начали обсуждать, почему это задело ИТ-комьюнити, где возникло напряжение и какие выводы лично я для себя из этого вынес. Всё началось довольно буднично. Несколько российских СМИ почти одновременно написали про будущий закон об ИИ. Формально — ничего необычного: регулирование, рамки, ответственность. Такое мы уже видели в других сферах. Но в этих публикациях всплыли два момента, которые сразу заставили насторожиться. Первый — обязательная маркировка видео и текстов, созданных нейросетями. Второй — использование факта применения ИИ как отягчающего обстоятельства при расследовании преступлений. Я не юрист и не законодатель, но даже на уровне здравого смысла стало понятно: это уже не просто “про технологии”. Через пару обсуждений в чатах и комментариях стало ясно, что не я
Оглавление

В феврале 2026 года я несколько дней подряд наблюдал, как в инфополе резко всплыло обсуждение будущего закона об ИИ — и довольно быстро стало ясно: речь идёт не только про технологии. В этом тексте я разберу, что именно начали обсуждать, почему это задело ИТ-комьюнити, где возникло напряжение и какие выводы лично я для себя из этого вынес.

Контекст: от нейросетей к уголовным формулировкам

Всё началось довольно буднично. Несколько российских СМИ почти одновременно написали про будущий закон об ИИ. Формально — ничего необычного: регулирование, рамки, ответственность. Такое мы уже видели в других сферах.

Но в этих публикациях всплыли два момента, которые сразу заставили насторожиться. Первый — обязательная маркировка видео и текстов, созданных нейросетями. Второй — использование факта применения ИИ как отягчающего обстоятельства при расследовании преступлений.

Я не юрист и не законодатель, но даже на уровне здравого смысла стало понятно: это уже не просто “про технологии”.

Через пару обсуждений в чатах и комментариях стало ясно, что не я один это почувствовал. В ИТ-комьюнити пошла волна критики, и она была довольно эмоциональной.

Что сделали: как это подали и как это считали

Если разобрать сами формулировки, то логика выглядела примерно так:

— ИИ-контент потенциально опасен

— значит, его нужно маркировать

— если ИИ использовался в преступлении — это усиливает вину

На бумаге это подаётся как борьба с фейками и злоупотреблениями. И в изоляции каждый пункт вроде бы можно понять.

Но проблема началась в связках.

Сделали акцент на обязательности маркировки → получили страх, что под это можно подвести вообще любой контент.

Добавили формулировку про
отягчающее обстоятельство → получили ощущение, что сам факт использования ИИ уже подозрителен.

В обсуждениях всё чаще звучал один и тот же вопрос: а кто и как будет определять, что именно считается “контентом, созданным ИИ”?

Что вышло на практике: реакция вместо диалога

Результат не заставил себя ждать. В профессиональных кругах это восприняли не как заботу о безопасности, а как попытку усилить контроль.

Я видел несколько типовых реакций:

— опасение, что под “фейк-ИИ” можно будет подвести нежелательный контент

— страх, что маркировка станет инструментом давления, а не прозрачности

— недоверие к тому, как эти нормы будут применяться на практике

Важно: речь не шла о том, что “регулирование не нужно”. Речь шла о том, как именно оно предлагается.

Примерно в этот момент стало понятно, что коммуникация пошла не туда. Вместо диалога — ощущение репрессивного инструмента. Вместо объяснений — тревожные заголовки.

Где сломалось: главная ошибка в логике

Если формулировать коротко, то сломалось в одном месте.

Не учли разницу между инструментом и намерением → упёрлись в недоверие и сопротивление.

ИИ — это способ производства контента. Сам по себе он не делает контент ни опасным, ни безопасным. Но когда его начинают выносить в отдельную категорию с усиленной ответственностью, это автоматически стигматизирует всех, кто им пользуется.

В обсуждениях это звучало примерно так:

“Получается, если я использовал ИИ — я уже потенциально виноват”.

И вот тут доверие резко падает.

Что поняли по ходу: дело не в законе, а в сигналах

Через какое-то время я поймал себя на мысли, что сам закон — это даже не главное. Главное — сигналы, которые он посылает рынку и сообществу.

Сделали ставку на жёсткие формулировки → получили ощущение угрозы.

Не объяснили границы применения → получили домыслы и страхи.

Промолчали про механизмы → получили недоверие.

И это уже не про юриспруденцию, а про коммуникацию.

Как бы стоило делать иначе

Если абстрагироваться от эмоций, то альтернативы были.

— Чётко разделить вредоносное использование и обычную работу

— Объяснить, что именно считается ИИ-контентом

— Показать примеры, а не пугать последствиями

— Сначала выстроить диалог с ИТ-сообществом, а потом выносить формулировки в СМИ

Даже простое пояснение логики могло бы сильно снизить градус.

Кстати, наблюдая за этой историей, я ещё раз убедился, насколько важно разбираться в реальной практике применения ИИ, а не в заголовках. Если тебе интересно посмотреть, как ИИ внедряют в бизнес без хайпа и страшилок, я собрал много живых кейсов внедрения AI — с ошибками, выводами и реальным опытом.

Там же есть честные обзоры AI-платформ в формате “стоит пользоваться или нет”, без рекламных обещаний. Всё это можно посмотреть по ссылке:

https://t.me/turing23_bot?start=dz