В прошлом году ЕС принял закон об искусственном интеллекте — это первая в мире всеобъемлющая правовая основа для искусственного интеллекта, устанавливающая, основанные на рисках, правила для систем ИИ в Европе.
И, если честно, новость как-то прошла незаметно, хотя такие начинания имеют большое значение.
Предполагается, что закон обеспечит безопасность, права и стандарты защиты данных, повысит доверие к ИИ.
Он запрещает ИИ с неприемлемым уровнем риска (например, социальные рейтинги - привет 🙋♂️, Китаю🇨🇳), налагает строгие требования на ИИ с высоким уровнем риска (например, сканеры компьютерного зрения или медицинские устройства) и направлен на стимулирование инноваций путем установления стандартов прозрачности, справедливости и подотчетности в разработке и внедрении ИИ, чтобы будущее выглядело мирно. Как-то так:
Ключевые аспекты Закона об ИИ:
Подход, основан на рисках. ИИ классифицируются по уровню риска:
▶️ неприемлемый (запрещенный),
▶️ высокий (строгие правила),
▶️ ограниченный (обязательства по прозрачности),
▶️ минимальный (в значительной степени нерегулируемый).
Неприемлемый риск
Все системы искусственного интеллекта, представляющие явную угрозу безопасности, средствам к существованию и правам людей, запрещены. Закон об ИИ в ЕС запрещает восемь видов деятельности, а именно:
⛔️ вредоносное манипулирование и обман с использованием ИИ;
⛔️ вредоносное использование уязвимостей с использованием ИИ;
⛔️ социальный рейтинг;
⛔️ оценка или прогнозирование риска совершения отдельных уголовных преступлений;
⛔️ сбор данных из интернета или с камер видеонаблюдения для создания или расширения баз данных распознавания лиц;
⛔️ распознавание эмоций на рабочих местах и в учебных заведениях;
⛔️ биометрическая категоризация для выделения определенных защищенных характеристик;
⛔️ дистанционная биометрическая идентификация в режиме реального времени для правоохранительных целей в общедоступных местах.
Высокий риск
Сценарии использования ИИ, которые могут представлять серьезную угрозу для здоровья, безопасности или основных прав, классифицируются как высокий риск. К числу таких высокорискованных сценариев использования относятся:
⚠️ Компоненты безопасности на основе ИИ в критически важных инфраструктурах (например, транспорте), отказ которых может поставить под угрозу жизнь и здоровье граждан;
⚠️ Решения на основе ИИ, используемые в образовательных учреждениях, которые могут определять доступ к образованию и ход профессиональной жизни человека (например, оценка экзаменов);
⚠️ Компоненты безопасности на основе ИИ в продуктах (например, применение ИИ в роботизированной хирургии);
⚠️ Инструменты ИИ для трудоустройства, управления персоналом и доступа к самозанятости (например, программное обеспечение для сортировки резюме при подборе персонала);
⚠️ Определенные сценарии использования ИИ для предоставления доступа к основным частным и государственным услугам (например, кредитный скоринг, лишающий граждан возможности получить кредит);
⚠️ Системы ИИ, используемые для удаленной биометрической идентификации, распознавания эмоций и биометрической категоризации (например, система ИИ для ретроспективной идентификации магазинного вора);
⚠️ Сценарии использования ИИ в правоохранительных органах, которые могут нарушать основные права людей (например, оценка достоверности доказательств).
⚠️ Применения в сфере миграции, предоставления убежища и управления пограничным контролем (например, автоматизированная проверка визовых заявлений)
⚠️ Решения на основе ИИ, используемые в отправлении правосудия и демократических процессах (например, решения на основе ИИ для подготовки судебных решений)
Системы ИИ высокого риска подлежат строгому регулированию и оценке, прежде чем они смогут быть выпущены на рынок, они должны иметь:
🔹️адекватные системы оценки и снижения рисков;
🔹️высокое качество наборов данных, поступающих в систему, для минимизации рисков дискриминационных результатов;
🔹️регистрацию активности для обеспечения отслеживаемости результатов;
🔹️подробную документацию, содержащую всю необходимую информацию о системе и ее назначении для оценки ее соответствия требованиям со стороны властей;
🔹️четкую и адекватную информацию для развертывающего устройства;
🔹️надлежащие меры человеческого контроля;
🔹️высокий уровень надежности, кибербезопасности и точности.
Правила для ИИ высокого риска вступят в силу в августе 2026 года и августе 2027 года.
Риск прозрачности
Это относится к рискам, связанным с необходимостью прозрачности в использовании ИИ.
Закон об ИИ вводит конкретные обязательства по раскрытию информации, чтобы гарантировать, что люди информируются, когда это необходимо для сохранения доверия.
Например, при использовании систем искусственного интеллекта, таких как чат-боты, люди должны быть осведомлены о том, что они взаимодействуют с машиной, чтобы они могли принять обоснованное решение.
Более того, поставщики генеративного ИИ должны обеспечить идентифицируемость контента, созданного ИИ.
Генеративный ИИ — системы, которые создают новые тексты, изображения и видео, основываясь на обученных данных.
Помимо этого, определенный контент, созданный ИИ, должен быть четко и наглядно помечен, а именно дипфейки и текст, опубликованный с целью информирования общественности по вопросам, представляющим общественный интерес.
Правила прозрачности Закона об ИИ вступят в силу в августе 2026 года.
Минимальный или нулевой риск
Закон об ИИ не вводит правил для ИИ, который считается минимальным или нулевым риском.
Подавляющее большинство систем ИИ, используемых в настоящее время в ЕС, попадают в эту категорию. Это включает в себя такие приложения, как видеоигры с поддержкой ИИ или спам-фильтры.
Читайте также:
- - - - - - - - -
⬇️Подписывайтесь на канал, чтобы не пропустить новые статьи, ставьте лайк 👍 и пишите с чем (не)согласны💬.