Найти в Дзене
4 подписчика

🤖 Законопроект об ИИ: Россия формирует свои правила игры


В публичное обсуждение вышел проект федерального закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации». Разбираем, что внутри и почему это важно.

🔑 Впервые на уровне федерального закона закрепляются понятия: модель ИИ, система ИИ, сервис ИИ, большие фундаментальные модели, доверенные модели, а также — «эксплуатация уязвимостей человека». Выстраивается чёткая цепочка субъектов: разработчик → оператор → владелец сервиса → пользователь. Каждому — свои обязанности и своя мера ответственности.

🛡Одна из отличительных черт — концепция «суверенных» и «национальных» больших фундаментальных моделей. Разработка, обучение и эксплуатация — на территории РФ, силами российских граждан и юрлиц, на российских данных. Государство берёт на себя обязательство создавать благоприятные условия для их развития.

✅ Для госсистем и критической инфраструктуры вводится реестр доверенных моделей ИИ. Попасть в него можно при подтверждении требований по безопасности и качеству. По сути — формируется контур «допуска» ИИ к чувствительным сферам.

👤 Закон фиксирует несколько важных гарантий:
🔸уведомление о том, что решение принимает ИИ, а не человек
🔸право отказаться от взаимодействия с ИИ и получить услугу «по-человечески»
🔸досудебное обжалование решений, принятых с помощью ИИ
🔸 право на компенсацию вреда

🫆 В статье 4 (общие принципы) персональные данные и неприкосновенность частной жизни упоминаются как часть принципа верховенства прав человека. Также в статье 5 указано, что при регулировании ИИ учитывается «категория обрабатываемой информации» — общедоступная или ограниченного доступа. Отдельной статьи о защите персональных данных при обучении моделей, о правилах обработки данных пользователей сервисов ИИ, о праве на удаление данных из датасетов или об ограничениях профилирования — в тексте нет.

🏷 Синтезированный контент (аудио, визуал, иное) должен содержать предупреждение — и в человекочитаемом, и в машиночитаемом формате. Платформы с аудиторией 100К+ обязаны проверять наличие маркировки и удалять немаркированный AI-контент. При этом по договору с пользователем можно отказаться от «видимой» маркировки — но машиночитаемая остаётся.

⚖️ Каждый субъект отвечает соразмерно степени вины. Разработчик, оператор и владелец сервиса могут быть освобождены от ответственности, если докажут, что предприняли исчерпывающие меры. Пользователь отвечает за умышленное использование ИИ в противоправных целях. Предусмотрено и регрессное требование оператора к разработчику.

💡Результаты, созданные с помощью ИИ, охраняются по ГК РФ — при соответствии критериям охраноспособности. Отдельно закреплено: извлечение информации из защищённых объектов для создания датасетов и обучения ИИ — не является нарушением авторских и патентных прав (при правомерном доступе к материалу).

⚡️Для центров обработки данных, включённых в специальный перечень, предусмотрены: приоритетное подключение к электросетям, сниженные тарифы, налоговые льготы, долгосрочные контракты на энергию и инфраструктурная поддержка. Фактически — режим «зелёного коридора» для вычислительной базы ИИ.

🌐 Отдельные статьи посвящены международному сотрудничеству: формирование «единого пространства доверенных технологий», продвижение российских подходов к оценке ИИ, экспорт технологий, совместные исследования и образовательные программы.

📅 Закон вступает в силу 1 сентября 2027, а многие конкретные требования будут определяться подзаконными актами Правительства.

➡️ По сути, закон задаёт архитектуру: кто за что отвечает, где границы допустимого, и как государство намерено поддерживать развитие ИИ.

Источник: regulation.gov.ru/...424
_____________________________
Дзен: dzen.ru/...adv
3 минуты