Добавить в корзинуПозвонить
Найти в Дзене
AINEX Нейросети

Государство хочет цензурировать нейросети. Что это значит для вас

13 апреля 2026 года замглавы Минцифры Александр Шойтов выступил на форуме «ИИ: режим доверия» и сказал прямо: искусственный интеллект в России должен быть подвергнут цензуре. На входе и на выходе. Дословная цитата: «Людей у нас цензурировать нельзя, у них есть права. А вот конкретно искусственный интеллект — у него на входе и на выходе должны стоять цензуры, которые запрещают определённые запросы, вопросы». Интернет взорвался. Одни кричат «это конец ChatGPT», другие — «наконец-то порядок», третьи — «да это уже давно есть, что нового». Разберём спокойно что происходит, что это реально означает и чего ждать дальше. Речь идёт о двухуровневой фильтрации всех ИИ-систем в России: Фильтр на входе — определённые запросы пользователей система просто не будет принимать. Написал что-то «нежелательное» — получил отказ или переформулирование. Фильтр на выходе — даже если запрос прошёл, ответ будет проверен перед отправкой. Неподходящий ответ — заблокирован или изменён. Параллельно Минцифры рассмат
Оглавление

13 апреля 2026 года замглавы Минцифры Александр Шойтов выступил на форуме «ИИ: режим доверия» и сказал прямо: искусственный интеллект в России должен быть подвергнут цензуре. На входе и на выходе.

Дословная цитата: «Людей у нас цензурировать нельзя, у них есть права. А вот конкретно искусственный интеллект — у него на входе и на выходе должны стоять цензуры, которые запрещают определённые запросы, вопросы».

Интернет взорвался. Одни кричат «это конец ChatGPT», другие — «наконец-то порядок», третьи — «да это уже давно есть, что нового». Разберём спокойно что происходит, что это реально означает и чего ждать дальше.

Что именно предложил Шойтов

Речь идёт о двухуровневой фильтрации всех ИИ-систем в России:

Фильтр на входе — определённые запросы пользователей система просто не будет принимать. Написал что-то «нежелательное» — получил отказ или переформулирование.

Фильтр на выходе — даже если запрос прошёл, ответ будет проверен перед отправкой. Неподходящий ответ — заблокирован или изменён.

Параллельно Минцифры рассматривает обязательную маркировку ИИ-контента. Любые фото, видео, аудио и тексты сгенерированные нейросетями должны будут иметь специальную метку.

Важная деталь которую мало кто заметил: цензура в России запрещена статьёй 29 (часть 5) Конституции РФ. Но чиновники считают что это ограничение распространяется только на граждан — не на алгоритмы.

Это новость? Нет. Это уже существует

Вот в чём парадокс. То о чём говорит Шойтов — технически уже реализовано в каждой нейросети.

То о чём говорится в заявлении замминистра, в инженерном мире давно известно под названием Guardrails — «ограждения» или «перила». В России их называют «горды». Это архитектурная надстройка над языковыми моделями.

ChatGPT не отвечает на запросы про создание оружия — это Guardrails. GigaChat не генерирует определённые типы контента — это тоже Guardrails. Каждый крупный ИИ-сервис уже работает с фильтрами.

Разница в том кто эти фильтры настраивает. Сейчас — компании-разработчики по своему усмотрению. После закона — государство по своим критериям.

Что это значит на практике

Если закон примут в текущем виде — вот что изменится:

Для пользователей. Часть запросов которые сейчас проходят — перестанет проходить. Какая именно часть — зависит от того как пропишут критерии. Это может быть как разумная защита (запросы про создание оружия, экстремизм), так и более широкие ограничения — в зависимости от политической воли.

Для российских ИИ-сервисов. GigaChat, YandexGPT и другие российские модели будут обязаны встроить государственные фильтры. Фактически — передать государству контроль над тем что модель может отвечать.

Для иностранных сервисов. ChatGPT, Claude, Gemini — они и так работают в серой зоне для российских пользователей. Если им тоже предъявят требования по цензуре — они просто не будут их выполнять. Это дополнительный аргумент для блокировки.

Для разработчиков. Те кто строит продукты на базе ИИ должны будут встраивать сертифицированные государством фильтры. Это дополнительные затраты и ограничения на функционал.

Когда это случится

Законопроект о регулировании ИИ вынесен на общественное обсуждение ещё в марте. В случае принятия закон может вступить в силу с 1 сентября 2027 года.

До этого момента — ничего не меняется. Нейросети работают как работали. Всё что происходит сейчас — это обсуждение и формирование позиции.

Это плохо или хорошо

Честный ответ — зависит от того что именно будут фильтровать.

Никто не будет спорить что запросы про создание биологического оружия или детскую эксплуатацию должны блокироваться. Это разумно и это уже делают сами компании.

Вопрос в том где проходит граница. И кто её устанавливает.

Есть «цензурища», жестко закатывающая всё под каток, и есть цензура которая возможно очень нужна разгулявшемуся ИИ. Только очень взвешенными по уму сделанными шагами можно вырулить на тропинку с твёрдым покрытием.

Если фильтры будут настроены разумно — это нормальное регулирование. Если слишком широко — это ограничение которое сделает российские ИИ-сервисы менее конкурентоспособными по сравнению с зарубежными аналогами доступными через VPN.

Что делать прямо сейчас

Ничего экстренного. Закон ещё не принят, детали не прописаны, 2027 год ещё впереди.

Если вы пользователь — просто следите за новостями. Если вы разработчик или бизнес строящий продукты на ИИ — начинайте думать о том как ваш продукт будет выглядеть в условиях государственной фильтрации. Лучше проработать это заранее чем переделывать в спешке.

Главный вывод: регулирование ИИ в России началось всерьёз. Это не паника и не катастрофа — это новая реальность рынка к которой нужно адаптироваться.

Статья подготовлена с помощью AI

Хотите разобраться как внедрить ИИ в бизнес с учётом российского законодательства?
Скачайте книгу:
«Тебя заменят. Смирись или адаптируйся»

Ведёте Telegram-канал? Дублируйте в MAX бесплатно до 1 июня:
TG2MAX

Подписывайтесь: t.me/ainexlab

Поддержать: Донат на Дзен