Найти в Дзене

Минцифры придумало главные правила для ИИ в России. Вот что изменится

Что случилось Минцифры выпустило проект закона, который впервые детально регулирует работу искусственного интеллекта в России. Если его примут, новые правила заработают с сентября 2027 года. Главное, что нужно знать Появились новые понятия
В законе вводят три вида моделей ИИ: суверенная, национальная и доверенная. Чётких определений пока нет, но понятно, что будут различать ИИ по степени контроля и происхождению. Можно спорить с решениями госорганов
Если государственное ведомство или госкомпания приняли решение с помощью ИИ, и оно вам не нравится, теперь можно оспорить его в досудебном порядке. Раньше было непонятно, как жаловаться на робота. За вред от ИИ заплатят людям
Если из-за работы нейросети человеку причинили ущерб (например, ИИ ошибся в диагнозе или навредил репутации), можно требовать компенсацию. Разработчиков заставят следить за контентом
Создатели ИИ обязаны: • Убирать дискриминационные алгоритмы (чтобы нейросеть не делила людей по полу, возрасту или национальности) • Блок

Что случилось

Минцифры выпустило проект закона, который впервые детально регулирует работу искусственного интеллекта в России. Если его примут, новые правила заработают с сентября 2027 года.

Главное, что нужно знать

Появились новые понятия
В законе вводят три вида моделей ИИ: суверенная, национальная и доверенная. Чётких определений пока нет, но понятно, что будут различать ИИ по степени контроля и происхождению.

Можно спорить с решениями госорганов
Если государственное ведомство или госкомпания приняли решение с помощью ИИ, и оно вам не нравится, теперь можно оспорить его в досудебном порядке. Раньше было непонятно, как жаловаться на робота.

За вред от ИИ заплатят людям
Если из-за работы нейросети человеку причинили ущерб (например, ИИ ошибся в диагнозе или навредил репутации), можно требовать компенсацию.

Разработчиков заставят следить за контентом
Создатели ИИ обязаны:

Убирать дискриминационные алгоритмы (чтобы нейросеть не делила людей по полу, возрасту или национальности)

Блокировать создание запрещённого контента

Нейросети пометят
Всё, что создано искусственным интеллектом (тексты, картинки, видео), должно иметь специальную маркировку. Чтобы было понятно: это не человек писал, а программа.

Кто ответит за ошибки
Если ИИ выдал что-то противозаконное, отвечать будут все:

Разработчик (кто написал код)

Оператор (кто запустил систему)

Владелец сервиса (где эта система работает)

Пользователь (кто задал вопрос)

Степень вины и ответственность поделят пропорционально — каждый получит свою долю.

Моё мнение

Закон сырой, но направление верное. Самое важное — теперь понятно, с кого спрашивать, если нейросеть накосячила. Раньше ИИ работал в серой зоне: вроде программа, а вроде отвечает за неё кто-то. Теперь цепочка ответственности прописана. Пометка контента от ИИ тоже нужна — чтобы не путать мнение человека и генерацию робота. Вопрос только в том, как это технически реализовать и не задушит ли регулирование развитие самой технологии.

#ИИ #закон #Минцифры #нейросети #регулирование #технологии #новости