Найти в Дзене
Kineiro

Минцифры предложило ввести цензуру для ИИ: что это значит для рынка

📌 Заместитель министра цифрового развития России Александр Шойтов заявил о необходимости государственного контроля над искусственным интеллектом через цензуру на входе и выходе. Разбираем, как это изменит архитектуру ИИ-систем, логику разработки и пользовательский опыт. 13 апреля на форуме «ИИ: режим доверия» заместитель министра цифрового развития России Александр Шойтов заявил, что развитие интеллектуальных алгоритмов требует обязательного государственного контроля и жесткой фильтрации ответов на запросы пользователей. По его мнению, цензура в отношении ИИ оправданна в отличие от аналогичных практик в отношении граждан. Это заявление обозначает новый этап регулирования технологий и меняет логику ответственности разработчиков. Людей цензурировать нельзя, у них есть права. А вот конкретно искусственный интеллект должен иметь цензуру на входе и на выходе, которая запрещает определенные запросы и вопросы. Формулировка предполагает два уровня фильтрации. На входе блокируются запросы, кот
Оглавление

📌 Заместитель министра цифрового развития России Александр Шойтов заявил о необходимости государственного контроля над искусственным интеллектом через цензуру на входе и выходе. Разбираем, как это изменит архитектуру ИИ-систем, логику разработки и пользовательский опыт.

Контекст

13 апреля на форуме «ИИ: режим доверия» заместитель министра цифрового развития России Александр Шойтов заявил, что развитие интеллектуальных алгоритмов требует обязательного государственного контроля и жесткой фильтрации ответов на запросы пользователей. По его мнению, цензура в отношении ИИ оправданна в отличие от аналогичных практик в отношении граждан. Это заявление обозначает новый этап регулирования технологий и меняет логику ответственности разработчиков.

Что предложил Шойтов

Людей цензурировать нельзя, у них есть права. А вот конкретно искусственный интеллект должен иметь цензуру на входе и на выходе, которая запрещает определенные запросы и вопросы. Формулировка предполагает два уровня фильтрации.

Как это работает технически

На входе блокируются запросы, которые система не должна обрабатывать. На выходе фильтруются ответы, которые алгоритм сгенерировал, но которые не соответствуют установленным правилам. Фактически речь идет о создании контура государственного контроля над содержанием взаимодействия с нейросетями.

Что это означает для разработчиков

Технически это требует встраивания фильтров в архитектуру систем, что меняет логику разработки и эксплуатации ИИ. Разработчики должны учитывать не только функциональность алгоритмов, но и соответствие требованиям регулятора. Это усложняет процесс, снижает гибкость систем и ограничивает сценарии использования.

Логика ответственности

Сейчас многие ИИ-системы используют внутренние фильтры, которые ограничивают определенные типы запросов и ответов. Однако предложенная Шойтовым модель предполагает государственный контроль, что означает внешнее регулирование правил фильтрации. Это меняет логику ответственности: не разработчик устанавливает границы, а регулятор.

Как общество относится к ИИ

При этом данные ВЦИОМ показывают позитивный настрой граждан. Руководитель практики «Гостех» Аналитического центра ВЦИОМ Ксения Демина 9 апреля сообщила, что более половины россиян (56%) положительно относятся к нейросетям. 44% предпочитают отечественные программы при выборе нейросети. 64% участников исследования ожидают больше пользы от искусственного интеллекта в ближайшие 3–5 лет.

Контроль содержания в автоматизированных процессах

Контроль содержания актуален не только для пользовательских запросов, но и для систем, которые генерируют контент автоматически. В таких процессах важна прозрачность правил, возможность редактирования на всех этапах и сохранение контроля качества.

Kineiro.ru помогает выстроить автономный контент-контур — от анализа тем и структуры до подготовки материалов и публикаций через API площадок (Telegram, ВКонтакте, Одноклассники, Яндекс Дзен и др.), сохраняя баланс между автоматизацией и контролем.

Риски и последствия для рынка

Введение цензуры на входе и на выходе может снизить гибкость систем, ограничить сценарии использования и усложнить разработку. С другой стороны, это может повысить предсказуемость поведения ИИ и снизить репутационные риски для компаний, которые используют нейросети в публичных сервисах.

Что изменится для пользователей

Пользователи могут столкнуться с более жесткими ограничениями при формулировке запросов и менее гибкими ответами систем. Однако это также может снизить количество некорректных или нежелательных ответов, что повысит доверие к технологиям.

Итоги

Государство рассматривает ИИ как объект регулирования, а не субъект прав, и готово встроить фильтры в архитектуру систем. Предложенная модель цензуры меняет не только пользовательский опыт, но и технологический процесс, превращая разработку ИИ в область с жестким государственным контролем содержания.