В России продолжается развитие технологий с такой скоростью, что порой это напоминает сюжет сказки: хаос, который внезапно сменяется строгим контролем со стороны государства. Министерство цифрового развития (Минцифры) недавно представило законопроект, касающийся регулирования искусственного интеллекта. Этот документ стал важным шагом для всех, кто работает с нейронными сетями и автоматизацией процессов. С 1 сентября 2027 года закон вступит в силу, и его требования могут существенно изменить рынок ИИ в стране.
Подпишись на наш телеграм, чтобы быть в курсе событий: https://t.me/astralot_ai
Разработчикам стоит приготовиться к новым задачам: введут обязательную маркировку контента, появятся реестры доверенных моделей и множество новых обязанностей. Бизнес, в свою очередь, получит возможность создать суверенные системы ИИ, но без надежды на мгновенные успехи — без мощных ресурсов и данных нам не обойтись без поддержки с Запада.
Законопроект ставит перед собой несколько ключевых задач. Прежде всего, он призван защитить граждан от манипуляций со стороны нейронных сетей, которые могут генерировать ложную информацию или дискриминирующие решения. К примеру, представьте, что дипфейк с вашим лицом используется для продвижения каких-то идей, и вам приходится защищать свои права в суде. Или алгоритм банка, отказывая в кредите, основывается на цвете кожи. Чтобы этого избежать, закон вводит обязательную маркировку ИИ-контента, включая изображения, видео и аудио. Контент будет иметь водяные знаки, которые можно будет видеть человеку и считывать машине. Конкретные форматы будут уточнены позже.
Защита прав граждан
Следующая задача — развитие автоматизации в госуправлении и бизнесе, но с установленным контролем. Для решений с низким риском, такими как чат-боты, предполагается больше свободы, тогда как высокорисковые решения, касающиеся суда или кредитования, потребуют повышенного внимания. Кроме того, граждане смогут оспаривать решения госорганов, основанные на ИИ, ещё до судебного разбирательства, и при нанесении вреда смогут требовать компенсации в рамках Гражданского кодекса. Особое внимание также уделяется технологической независимости: применение иностранных моделей будет ограничено, лишь наши разработки станут основой.
Законопроект четко определяет терминологию: модель ИИ, сервис ИИ, система ИИ. В России планируется создание трех типов моделей: суверенные модели, разработанные полностью в стране на наших данных; национальные модели, которые также будут создаваться здесь, но с акцентом на поддержку, и доверенные модели, которые соответствуют требованиям безопасности, все данные которых будут храниться в России, а реестры — утверждаться правительством.
Прозрачность и ответственность
Для клиентов, то есть разработчиков и бизнесменов, это означает больше прозрачности в правилах игры. Теперь не придется бояться, что вашу нейросеть заблокируют за «неправильные» выводы. В коммерческом секторе обязательства будут менее жесткими, для компаний с месячной аудиторией свыше 500 тысяч пользователей маркировка контента станет необходимостью. А для государства искусственный интеллект должен учитывать «традиционные российские духовно-нравственные ценности» — патриотизм, милосердие и справедливость. Это звучит довольно громко, но такой подход должен создать некий барьер для западных технологий.
Законопроект создает рамки для всей цепочки: разработчик модели ИИ (это может быть юридическое или физическое лицо, занимающееся обучением нейросетей), оператор системы (тот, кто её разворачивает), владелец сервиса (например, платформа чат-бота) и конечный пользователь. Каждая из этих ролей имеет свои обязанности. Разработчик должен следить за содержанием, блокировать дискриминационный и противоправный контент. Оператор отвечает за безопасность и предупреждает о лимитах использования системы. Владелец сервиса должен контролировать правильное использование технологии.
Что касается практического применения, в бизнесе это, прежде всего, будет касаться автоматизации колл-центров, предиктивной аналитики продаж и генерации контента. Но подчеркиваю, маркировка контента станет обязательным требованием: если нейросеть создала рекламу, необходимо указывать, что она «Сделано ИИ». В государственной сфере только доверенные модели будут использоваться в госсистемах и критической инфраструктуре. Люди также имеют право отказаться от услуг, предоставляемых ИИ, если они находятся в специальном перечне от правительства, и получить помощь от человека. Оспаривать решения тоже можно до судебной инстанции. Обсуждение законопроекта продлится до 15 апреля 2026 года, однако стоит отметить, что доработки будут неизбежны, так как юридическое сообщество уже указывает на неясные термины и противоречия.
Важный аспект — суверенные модели, которые подразумевают полное выполнение всех этапов разработки и обучения на территории России. Доверенные модели окажутся в реестре, при этом данные останутся внутри страны. Закон разрешает использовать работы авторов (книги, фильмы) для обучения, однако с условием, что оригинал не будет доступен пользователю. Исключения составляют случаи, касающиеся обороны, безопасности и чрезвычайных ситуаций.
Преимущества нового подхода
Рассмотрим основные преимущества нового подхода. Во-первых, маркировка поможет защититься от фейков: это увеличит доверие к контенту, особенно в условиях, когда дезинформация широко распространена. Технологический суверенитет, который будет обеспечен поддержкой отечественных нейронных сетей, также важен — так мы будем меньше зависеть от внешних санкций и утечек данных. Риск-ориентированный подход позволяет малому бизнесу развиваться без излишнего давления, в то время как крупные компании окажутся под жестким контролем. Это создаст благоприятные условия для того, чтобы стартапы рисковали и экспериментировали, а большие корпорации внедряли автоматизацию.
Не стоит забывать и о правах граждан. Возможность отказаться от ИИ-услуг и требования компенсаций повысят лояльность в обществе. Максимальная выгода будет ощутима в области госслужб и финансовых технологий, где важно поддерживать диалог с клиентами. Новый закон открывает двери для интеграции инноваций и одновременно обеспечивает защиту от чрезмерного регулирования, которое наблюдается в других странах.
Стоит отметить, что основная польза от новых инициатив будет в автоматизации бизнеса. Чат-боты с аудиторией менее 500 тысяч пользователей смогут работать свободно, а те, кто выйдет за этот предел, будут обязаны соблюдать новые правила. Это необходимо, так как на данный момент Россия отстает в плане мощностей, однако закон должен стимулировать инвестиции в эту сферу.
Теперь полезные советы для клиентов, которые планируют адаптироваться к новому законодательству. Прежде всего, изучите проект закона уже сейчас: читайте информацию на специализированных порталах, комментируйте его до завершения обсуждения — это ваша возможность повлиять на доработки. Подготовьтесь к введению маркировки: заранее внедряйте водяные знаки в нейронные сети и тщательно тестируйте на наличие дискриминационных тенденций. Научитесь делать упор на суверенные модели: обучайте их на российских данных. Стремитесь попасть в реестр доверенных моделей — это обеспечит вам доступ к грантам и приоритетам в госзаказах.
Для бизнеса важно начать разработку ИИ в менее рискованных сферах, таких как маркетинг и аналитика. Monetize DAU и следите за числом пользователей — это поможет избежать непредвиденных сложностей. Обязательно продумайте юридическую защиту: документируйте всю цепочку ответственности, чтобы не быть ответственным за ошибки других. Не забывайте инвестировать в локальные мощности, старайтесь наладить сотрудничество с облачными провайдерами, иначе суверенность останется лишь мифом. И наконец, проверяйте выводы и алгоритмы на соответствие «духовно-нравственным ценностям» — лучше перестраховаться.
Наш телеграмм-канал: t.me/astralot_ai