Мы привыкли думать, что нейросети — это что-то из будущего. Но на самом деле их история началась задолго до нынешнего бума. Еще в 90-х годах алгоритмы учились читать рукописный текст, распознавать отсканированные документы и даже обыгрывать чемпионов мира по шахматам. Технология развивалась десятилетиями, и вот теперь она не просто играет в игры, а ставит диагнозы, управляет автомобилями и решает, дать ли человеку кредит.
Вместе с новыми возможностями пришли и новые риски. Что делать, если искусственный интеллект ошибется? И кто понесет за это ответственность?
Ответ неочевиден, и юристы только начинают его обсуждать. В апреле 2026 года на круглом столе в Торгово-промышленной палате заместитель председателя Совета по интеллектуальной собственности Борис Герасин сформулировал главный вопрос так: «Насколько юрист может доверять ИИ, не проверяя результат?».
Позиция пока однозначна: полностью делегировать ответственность машине нельзя. Человек, подписывающий документ или принимающий решение, остается главным контролером и отвечает за последствия. ИИ — это инструмент, а не субъект права. Впрочем, как заметил тот же эксперт, не исключено, что в будущем может появиться модель «разделенной ответственности» — например, часть вины ляжет на юриста, а часть на разработчика, если ошибка была вызвана известным сбоем нейросети. Но это пока лишь гипотеза.
Сегодня государство последовательно выстраивает систему регулирования этой сферы. Минцифры разработало проект закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта». Публичное обсуждение документа завершилось 15 апреля 2026 года, и сейчас он проходит дальнейшие стадии согласования. Планируемая дата вступления в силу — 1 сентября 2027 года. Закон впервые закрепит единые правила для всей отрасли. Разберемся, что изменится и почему он — важнейший элемент технологического суверенитета страны.
1. Не на пустом месте: как государство готовило почву
Прежде чем вводить правила, наша страна сделала ставку на развитие. В 2021–2024 годах в рамках федерального проекта «Искусственный интеллект» государство направило на развитие технологий ИИ более 36 миллиардов рублей. Эти средства пошли на поддержку исследовательских центров, разработчиков, стартапов, проведение хакатонов и образовательных программ.
Для тестирования передовых решений — например, беспилотного транспорта — были созданы «цифровые песочницы»: особые правовые режимы, позволяющие временно обходить устаревшие нормы под строгим контролем государства. Такой подход дал возможность накопить практический опыт, прежде чем переходить к постоянному регулированию.
Новый закон — логичное продолжение этой работы. Он превращает наработанные практики в прозрачные и долгосрочные правила игры.
2. Порядок в терминах: кто есть кто в мире ИИ
Чтобы четко распределить ответственность, закон впервые вводит ясную систему ролей. Теперь каждый участник процесса знает свое место:
· Разработчик модели создает и обучает нейросеть. Это как конструктор, проектирующий двигатель.
· Оператор системы отвечает за эксплуатацию и обработку данных. Условно — водитель за рулем.
· Владелец сервиса предоставляет доступ пользователям. Аналог — таксопарк, выпускающий машины на линию.
· Пользователь — тот, ради кого все работает, то есть мы с вами.
Такой подход исключает хаос и позволяет адресно спрашивать с каждого звена цепочки.
📌 Пример из жизни: Представьте агрохолдинг, который внедряет систему для контроля состояния посевов с дронов. Разработчик — IT-компания, создавшая модель распознавания болезней растений по снимкам. Оператор — агрономическая служба, которая разворачивает систему в хозяйстве. Владелец сервиса — сам агрохолдинг. Пользователи — сотрудники, принимающие решения об обработке полей. У каждого звена — своя зона ответственности.
3. Защита прав граждан — превыше всего
Одна из ключевых задач закона — поставить интересы человека во главу угла.
Если решение в отношении вас принимает не живой сотрудник, а искусственный интеллект, вас обязаны об этом проинформировать. Более того, в случаях, которые определит Правительство, вы сможете отказаться от взаимодействия с машиной и потребовать, чтобы вашим вопросом занялся человек. Это особенно важно, когда речь идет о жизненно значимых вопросах.
Решения госорганов, принятые с использованием ИИ, можно будет обжаловать в досудебном порядке. А если неправомерное применение нейросети причинило вам вред, вы имеете право на компенсацию.
📌 Пример из жизни: Выпускник подает документы в вуз, и алгоритм автоматически отклоняет заявку, посчитав баллы недостаточными. Раньше он просто получил бы отказ. Теперь вуз обязан уведомить абитуриента, что решение принято автоматически, а у поступающего появляется право потребовать пересмотра заявки приемной комиссией с участием живых людей.
4. Суверенный искусственный интеллект: ставка на свое
В условиях глобальной технологической конкуренции особенно важно опираться на собственные разработки. Закон вводит понятия «суверенных» и «национальных» моделей ИИ — тех, что создаются в России, российскими специалистами и на российских данных.
Для таких моделей государство предусмотрит меры поддержки. А для работы в госорганах и на объектах критической информационной инфраструктуры — в энергетике, банковской сфере, связи — будут допускаться исключительно «доверенные модели», прошедшие сертификацию по безопасности. Это не ограничение, а гарантия того, что стратегически важные системы защищены от внешних угроз и соответствуют высоким стандартам качества.
📌 Пример из жизни: На крупном нефтеперерабатывающем заводе внедряется система предиктивного обслуживания оборудования на основе ИИ. Она анализирует данные с датчиков и предсказывает поломки до того, как те произойдут. И диагностическая модель, и серверы, на которых она работает, и сами производственные данные — все находится в российском правовом поле и защищено от внешнего вмешательства.
5. Ответственность: справедливо и прозрачно
Вопрос ответственности — один из самых чувствительных. Законопроект решает его сбалансированно.
Разработчик, оператор и владелец сервиса отвечают за вред, причиненный их продуктом, если они знали или должны были знать о соответствующих рисках. Однако если они предприняли все разумные меры для предотвращения нарушений и соблюдали требования закона, ответственность с них снимается. Пользователь отвечает сам, если вред стал следствием его умышленных действий или нарушения условий использования.
Такой подход защищает интересы граждан, не перегружая бизнес чрезмерными рисками, и стимулирует разработчиков создавать по-настоящему безопасные продукты.
📌 Пример из жизни: В лесном хозяйстве используется ИИ для мониторинга пожаров по спутниковым снимкам. Система не заметила возгорание на ранней стадии, и огонь распространился на значительную площадь. Расследование установит, кто виноват: разработчик модели, не обучивший ее распознавать дым на фоне облаков; оператор, вовремя не обновивший метеоданные; или пользователь, проигнорировавший предупреждения о нештатной ситуации. Алгоритм крайним не будет — отвечают люди.
6. Маркировка и прозрачность
Еще одно важное нововведение — обязательная маркировка контента, созданного нейросетями. Если вы смотрите видео или читаете текст, сгенерированный ИИ, вы будете об этом знать. Крупные интернет-площадки с аудиторией свыше 100 тысяч пользователей будут обязаны проверять наличие такой маркировки. Это прямое требование закона, направленное против скрытых манипуляций и дезинформации.
📌 Пример из жизни: В интернете появляется аудиозапись, на которой голос руководителя крупной компании якобы призывает вкладывать деньги в сомнительный проект. Но благодаря маркировке «Синтезированная речь» слушатели сразу понимают: это подделка, созданная нейросетью. Репутация человека и деньги граждан остаются под защитой.
7. Закон как фундамент будущего
Принятие этого закона — не просто формальность. Это часть большой государственной стратегии, начатой Указом Президента о развитии искусственного интеллекта и продолженной масштабными инвестициями в науку, образование и бизнес.
Впереди — этап межведомственных согласований и доработок, которые обеспечат сбалансированность и качество будущих норм. Это нормальный законотворческий процесс, который исключает поспешные решения в столь важной сфере.
Остается надеяться, что намерения законодателя окажутся справедливыми, а все имеющиеся вопросы от профессионального сообщества будут услышаны и решены. От этого зависит, станет ли новый закон реальным фундаментом для технологического рывка или останется декларацией. А сегодняшний день вектор задан верный.
Как вы считаете, в каких сферах жизни допустимо доверять решения искусственному интеллекту, а где последнее слово всегда должно оставаться за человеком?
Понравился материал? Подписывайтесь на канал!