18 марта 2026 года Минцифры опубликовало на портале проектов нормативных правовых актов долгожданный законопроект «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в РФ». Документ впервые в российской практике вводит системные правила для разработчиков, бизнеса и государства. Общественное обсуждение продлится до 15 апреля.
Разбираемся, что именно предлагают чиновники, какие права получат граждане и — самое главное — как каждый из нас может высказать своё мнение по этому законопроекту.
---
Что случилось
Минцифры завершило работу над проектом федерального закона об ИИ и вынесло его на публику. Документ устанавливает единые правила для всех, кто создаёт, внедряет или использует системы искусственного интеллекта . Планируется, что закон вступит в силу 1 сентября 2027 года.
Вице-премьер Дмитрий Григоренко, курирующий цифровую повестку, прокомментировал: «ИИ уже используется повсеместно, поэтому важно установить понятные и прозрачные правила его применения. Для нас важно соблюсти баланс между защитой интересов граждан и развитием технологий» .
---
Ключевые положения законопроекта
1. География разработки: только Россия
Согласно проекту, все стадии разработки и обучения моделей ИИ должны будут проходить на территории Российской Федерации. Это касается как государственных, так и коммерческих проектов.
Одновременно вводятся новые понятия: суверенная модель ИИ, национальная модель ИИ, доверенная модель ИИ. Что именно будет скрываться за этими терминами, пока не уточняется, но сам факт их появления в законе говорит о том, что государство намерено классифицировать ИИ по степени его «лояльности» и контроля.
2. Права граждан: оспаривание, компенсации, отказ от ИИ
Самая важная для простых людей часть законопроекта касается защиты прав человека при взаимодействии с искусственным интеллектом .
Досудебное обжалование. Граждане смогут оспаривать решения госорганов и госкомпаний, принятые с использованием ИИ, в досудебном порядке. Это значит, что если алгоритм отказал вам в выплате, неправильно рассчитал налог или вынес иное значимое решение, вы сможете обратиться с жалобой, не дожидаясь суда.
Право на компенсацию. Если использование ИИ причинило вред, человек получит право на возмещение убытков по общим правилам гражданского законодательства . То есть алгоритм не станет «безответной машиной» — за его ошибки будет отвечать конкретный разработчик или оператор.
Возможность отказаться от ИИ. Законопроект закрепляет право граждан отказаться от обслуживания с применением искусственного интеллекта. Если клиент не хочет общаться с нейросетью или получать услугу на базе ИИ, организация обязана будет предоставить альтернативу с участием живого человека. Правда, перечень ситуаций, в которых можно будет воспользоваться этим правом, ещё предстоит утвердить правительству.
3. Риск-ориентированный подход
Законопроект вводит риск-ориентированную модель регулирования. Это значит, что требования к системами ИИ будут зависеть от того, насколько сильно они влияют на жизнь человека и общество . Чем выше риски — тем жёстче контроль.
Для чувствительных сфер (например, госуправление) установят отдельные обязательные требования. В коммерческом секторе бизнес сможет внедрять ИИ более свободно.
4. Обязанности разработчиков
Создатели моделей ИИ должны будут:
· исключать дискриминационные алгоритмы — тестировать системы на предмет предвзятости по полу, возрасту, национальности и другим признакам;
· блокировать создание противоправного контента — не допускать, чтобы нейросети генерировали призывы к экстремизму, порнографию и другие запрещённые материалы;
· тестировать модели на безопасность перед запуском .
Операторы систем ИИ, в свою очередь, обязаны информировать пользователей об ограничениях и рисках.
5. Маркировка контента, созданного ИИ
Все аудиовизуальные материалы, сгенерированные нейросетями, должны содержать специальную маркировку-предупреждение. Крупные социальные сети (из реестра РКН) обязаны проверять её наличие, а при её отсутствии — удалять контент или маркировать самостоятельно .
6. Распределение ответственности
Закон впервые чётко прописывает, кто отвечает за вред, причинённый ИИ. Ответственность распределяется между четырьмя сторонами:
· разработчиком модели;
· оператором системы;
· владельцем сервиса;
· пользователем.
Каждый отвечает соразмерно степени своей вины . Это значит, что если разработчик заложил ошибку в алгоритм, оператор неправильно его настроил, а владелец сервиса не проконтролировал результат, отвечать будут все вместе.
---
Как принять участие в обсуждении
Законопроект находится в стадии публичного обсуждения до 15 апреля 2026 года . Это означает, что любой гражданин может официально высказать своё мнение, и эти комментарии будут рассмотрены разработчиками .
Вот пошаговая инструкция:
Шаг 1. Перейдите на официальный портал
Зайдите на сайт regulation.gov.ru — это единый портал для размещения проектов нормативных правовых актов и результатов их общественного обсуждения .
Шаг 2. Авторизуйтесь
Для участия в обсуждении потребуется учётная запись на портале Госуслуг . Нажмите кнопку «Войти» и пройдите авторизацию через ЕСИА.
Шаг 3. Найдите нужный законопроект
Воспользуйтесь поиском по сайту. Можно искать по:
· названию: «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в РФ»;
· дате публикации (18 марта 2026);
· разработчику (Минцифры России).
Законопроект находится в разделе «Идёт обсуждение» .
Шаг 4. Ознакомьтесь с документами
На странице проекта вы найдёте текст самого законопроекта, пояснительную записку и другие материалы. Внимательно изучите их, чтобы ваши замечания были обоснованными.
Шаг 5. Оставьте своё мнение
На странице проекта есть форма для отправки предложений и замечаний . Вы можете:
· поставить оценку («палец вверх» или «палец вниз»), выразив общее отношение к документу ;
· написать развёрнутый комментарий в поле «Ваши предложения».
Важно: даже короткий, но содержательный комментарий имеет значение. Пишите по существу, ссылайтесь на конкретные статьи законопроекта, предлагайте формулировки.
Шаг 6. Отправьте и следите за статусом
После отправки ваше предложение появится на странице проекта. Разработчик обязан рассмотреть все поступившие замечания и разместить сводку предложений с указанием своей позиции .
---
Что говорят эксперты
Мнения специалистов разделились.
Ярослав Селиверстов (эксперт «Университета 2035») считает, что норма о праве на отказ от ИИ продиктована «стремлением обеспечить законное право потребителя на выбор формата взаимодействия через живое общение». Особенно это важно в сферах с высокой ценой ошибки — медицина, юриспруденция, финансы.
Карен Казарян (директор Института исследований интернета) называет законопроект «сырым». По его мнению, массовый отказ клиентов от ИИ приведёт к росту расходов компаний и удорожанию услуг. Кроме того, в некоторых сервисах (такси, навигаторы) без ИИ просто не обойтись.
В Т2 и Wildberries&Russ также предупреждают, что новое регулирование не должно ухудшать пользовательский опыт и замедлять обслуживание.
---
Что будет дальше
Общественное обсуждение законопроекта продлится до 15 апреля 2026 года . После этого:
1. Разработчик проанализирует поступившие предложения и доработает проект с их учётом .
2. Документ направят на межведомственное согласование.
3. Затем законопроект внесут в Госдуму.
4. Если всё пойдёт по плану, закон вступит в силу 1 сентября 2027 года.
У вас есть почти месяц, чтобы высказать своё мнение. Не упустите эту возможность — сейчас, на стадии публичного обсуждения, ваш голос действительно может повлиять на итоговый текст закона.
---
P.S. Как считаете, нужен ли закон об ИИ или это преждевременная бюрократия? Делитесь мнением в комментариях. И не забудьте зайти на regulation.gov.ru до 15 апреля — пусть ваш голос будет услышан.
#ИИ #законопроект #Минцифры #искусственныйинтеллект #регулирование #праваграждан #общественноеобсуждение #технологии
