Закон об искусственном интеллекте начнет действовать в январе 2026 года в Южной Корее — таким образом она станет первой в мире страной, которая введет в действие комплексную нормативно-правовую базу в области ИИ. В России такой закон только разрабатывается. Какие проблемы он должен решить, рассказали эксперты Университетского консорциума исследователей больших данных.
Технологии искусственного интеллекта развиваются в России с огромной скоростью, и власти ставят разработчикам и бизнесу задачу перейти от экспериментов к массовой практике во всех регионах. Однако всеобщая ИИ-трансформация спотыкается на законодательстве — в стране нет отдельного закона, всеобъемлюще регулирующего искусственный интеллект, а существующая нормативно-правовая база не отвечает на все ИИ-запросы.
При этом власти страны называют искусственный интеллект одним из ключевых драйверов экономического роста и фактором технологической независимости. Совокупный вклад ИИ-технологий в ВВП России к 2030 году должен превысить 11 трлн рублей.
«Учитывая всё это, сфера ИИ должна бы иметь чёткий и понятный закон, но пока такого документа в России нет. К сожалению, сегодня регулирование происходит точечно, базируясь на отдельных инициативах, ведомственных актах, которые не образуют единой системы. Существующая нормативно-правовая база не успевает за темпами технологических изменений, что тормозит внедрение ИИ и ограничивает инвестиции», — говорит директор Института анализа больших данных и искусственного интеллекта ТГУ Вячеслав Гойко.
В России есть Национальная стратегия развития искусственного интеллекта и законы об экспериментальных правовых режимах, а в августе 2025 года Минцифры сформулировал проект концепции для внедрения в России комплексного регулирования, основой которого должен стать человекоориентированный подход. Отдельный закон об ИИ активно обсуждается, но его точные сроки принятия официально не обозначены.
«Безответственный» интеллект
Важной проблемой остается вопрос юридической ответственности. Российское законодательство не готово к случаям, когда значимые решения будут приниматься автономными системами без участия человека.
«В правовой системе ответственность привязывается к конкретному лицу, а не к технологии: ИИ не является субъектом права. Поэтому ответственность чаще всего ложится на разработчика, владельца или пользователя. Современные ИИ‑модели принимают решения на основе сложных внутренних связей (например, весов нейронной сети и статистических зависимостей), которые сложно либо невозможно «прочитать» и однозначно интерпретировать человеком. Это означает, что нельзя просто посмотреть на код или данные и точно установить, какие именно факторы вызвали конкретный вывод системы, а значит доказать прямую причинно‑следственную связь между действием модели и наступившим результатом бывает крайне затруднительно», — комментирует заместитель директора Института права и национальной безопасности Президентской академии, д.ю.н. Оксана Шмалий.
Нормативные критерии по юридической ответственности помогли бы построить адекватные законодательные механизмы, что, в свою очередь, снизит число компаний, которые боятся внедрять ИИ-системы в чувствительных сферах вроде медицины, транспорта и юриспруденции.
Модели есть, права нет
Эксперты отмечают, что в России необходимо разработать нормативы определения правового режима обучающих датасетов, весов и результатов генерации. Это позволит решить проблему интеллектуальной собственности, которая заключается в том, что юридическая практика не позволяет квалифицировать ИИ-продукты как результат интеллектуального труда, поскольку они не создаются человеком напрямую.
«Современные модели обучаются на огромных массивах данных, в которых нередко присутствуют работы реальных людей — тексты, изображения, музыка. Когда алгоритм использует чужой труд и затем воспроизводит его фрагменты или создает нечто новое на этой основе — это вопрос уважения к авторам, их труду и культурному наследию. Поэтому технологии должны развиваться с вниманием к людям. Это означает прозрачность происхождения данных и маркировку контента как «созданного ИИ», механизмы честной компенсации, учет интересов уязвимых сообществ, возможность для авторов решать, участвуют ли их работы в обучении. Разработчики, платформы и государство несут общую ответственность — продукты ИИ должны оцениваться особо, с фокусом на этику и соответствие особым правовым стандартам», — считает директор Института общественных наук Президентской академии Павел Голосов.
Нормы для контроля
Также важны обязательные технические стандарты и процедуры оценки качества интеллектуальных систем. Стандартизацию, аудит и сертификацию ИИ выполняют Росстандарт и Минцифры, но большая часть их инициативных документов носит лишь рекомендательный характер и не охватывает вопросы безопасности ИИ-систем. Между тем отсутствие нормативных механизмов контроля и отчетности может замедлять реализацию стратегических планов государства по развитию ИИ.
«Разработка правовых рамок для ИИ требует высокой экспертности, российским государственным органам часто не хватает необходимых компетенций для формирования адекватных регуляторных решений, а эксперты отрасли не слишком стремятся работать с госструктурами, да и в целом многие российские специалисты работают за рубежом. Для построения полноценных режимов аудита, надзора и других оценок ИИ-систем нужны специальные подразделения в государственных структурах, обучение соответствующих кадров и привлечение экспертов. Эти процессы занимают значительное время, поэтому регулирование отстает от технологического развития или ставит чрезмерные рамки. А это, в свою очередь, снижает доверие бизнеса и увеличивает операционные риски, компании становятся менее заинтересованными в инвестициях и развитии ИИ», — считает Вячеслав Гойко.
Решенные вопросы: понятный термин ИИ…
Эксперты отмечают, что часть законодательных пробелов закрыли в 2025 году. Так появился новый вариант определения термина «искусственный интеллект». Предыдущее (и пока формально действующее) определение из закона 2020 года № 123-ФЗ и Национальной стратегии называют противоречивым: оно размыто, допускает множество трактовок и не позволяет чётко отличить ИИ от традиционного ПО, из-за чего компании не понимают, как именно закон будет видеть их продукт.
В Госдуме предложили закрепить в профильном законе новое определение: «Искусственный интеллект — это любая система данных, программное обеспечение или аппаратное средство, обладающее способностью обрабатывать данные и информацию способом, напоминающим разумное поведение, с использованием методов машинного обучения или статистических методов для генерации контента, формирования прогнозов, рекомендаций или решений, способных оказывать влияние на реальную и виртуальную среду».
... и данные для обучения моделей
Многие компании сектора ИИ ждали поправки в закон о персональных данных, они были приняты в уходящем году. Эти нововведения позволяют частично решить проблему использования данных для обучения моделей.
Российское законодательство о персональных данных пока не даёт специальных правил для их использования в обучении ИИ: неясно, как именно можно применять персональные данные и какие гарантии должен обеспечивать разработчик, чтобы не нарушать права граждан. Дополнительную проблему создаёт неравный доступ к данным: крупные корпорации аккумулируют огромные массивы пользовательской информации и получают преимущество перед стартапами и научными группами. Такая монополизация данных как ресурса тормозит конкуренцию и замедляет развитие технологий.
Теперь же официально разрешено использовать для разработки и внедрения ИИ без согласия субъекта корректно обезличенные данные. Параллельно обсуждается создание государственной системы наборов обезличенных данных, которая должна снизить монополию крупных игроков и открыть исследователям и малым командам доступ к качественным датасетам после строгой проверки.