14 подписчиков
Новый закон об ИИ: что изменится для бизнеса в 2027 году
Минцифры РФ опубликовало проект закона об искусственном интеллекте.
Документ вызвал волну обсуждений — появились слухи о запрете сервисов и «цифровом занавесе» и как сказал вчера один мой клиент «Всё!Ушёл плакать!»😂
Давайте разберемся, что реально стоит за этим законопроектом и как к нему готовиться.
Закон планируют ввести только с 1 сентября 2027 года. Сейчас это проект на общественном обсуждении. Юридическое сообщество может повлиять на итоговые формулировки. Для госсистем и объектов КИИ (банки, связь, транспорт) вводится закрытый контур. Работать можно только с моделями из специального реестра.
Критерии для включения в реестр:
🔹соответствие требованиям безопасности ФСТЭК и ФСБ
🔹обработка данных только на территории РФ
🔹подтверждение качества от отраслевых регуляторов
Появляются понятия «суверенных» и «национальных» моделей. Разработка и обучение должны проходить в РФ силами российских лиц с контролем более 50% голосов. Модели с «иностранным элементом» на любой стадии проверку не пройдут. Это создает барьер для западных решений вроде ChatGPT в значимых проектах.
Выстраивается иерархия:
Разработчик → Оператор → Владелец сервиса → Пользователь.
Разработчик, оператор и владелец несут ответственность, если «заведомо знали или должны были знать» о возможности противоправного результата. Бремя доказывания смещается — нужно доказывать принятие исчерпывающих мер.
Владелец сервиса сможет требовать регресс с разработчика за ошибки модели, если докажет, что принял разумные меры безопасности. Пользователь отвечает за использование результата ИИ, если нарушил условия сервиса или действовал умышленно.
Результаты, созданные с помощью ИИ, охраняются по ГК РФ независимо от того, создал их человек или система. Владелец сервиса обязан четко закрепить в договоре, кому принадлежат права на результат. Без этого правовой статус контента останется неопределенным.
Важное исключение: извлечение информации из объектов для обучения ИИ не нарушает авторское право, если у разработчика есть правомерный экземпляр. Это легализует интеллектуальный анализ данных для обучения нейросетей.
Владельцы сервисов обязаны маркировать контент, созданный с помощью ИИ (синтезированный аудио и визуальный материал). Крупные площадки с суточной аудиторией более 100 тысяч пользователей должны проверять наличие маркировки и удалять контент без нее.
Можно отказаться от воспринимаемой человеком маркировки по договору с пользователем. Но отказ должен быть предметным, информированным и однозначным. Это усложнит интерфейсы и пользовательские соглашения.
Разработка ИИ должна базироваться на принципах патриотизма, приоритета духовного над материальным и поддержки крепкой семьи. Правительство назначит орган для оценки моделей на соответствие этим ценностям. Вводится новый вид идеологического комплаенса.
Запрещается «эксплуатация уязвимостей человека», что может стать основанием для блокировки сервисов с манипулятивными алгоритмами.
Что делать?
📌 Проведите аудит договоров. Проверьте, прописаны ли права на результаты работы ИИ.
📌 Оцените используемые модели. Если работаете с госсектором — начинайте искать российские альтернативы.
📌 Пересмотрите пользовательские соглашения. Добавьте условия о маркировке контента и правах на результаты.
📌 Документируйте меры безопасности. При возникновении спора это станет доказательством разумной осмотрительности.
Законопроект задает архитектуру на годы вперед. Он балансирует между инновациями и контролем.
С одной стороны — легализация обучения на открытых данных, господдержка ЦОД, понятные статусы участников. С другой — жесткие барьеры для иностранных моделей, идеологический фильтр, повышенные стандарты ответственности.
Времени на адаптацию достаточно. Главное — начать готовиться уже сейчас, а не ждать сентября 2027 года.
3 минуты
21 марта