В среду законодатели Европейского союза окончательно одобрили закон об искусственном интеллекте, принятый блоком из 27 стран, который вводит в действие ведущие мировые правила, которые вступят в силу позднее в этом году.
Законодатели Европейского парламента подавляющим большинством проголосовали за Закон об искусственном интеллекте, спустя пять лет после того, как были впервые предложены нормативные акты. Ожидается, что Закон об искусственном интеллекте послужит глобальным ориентиром для других правительств, пытающихся решить, как регулировать быстро развивающиеся технологии.
“Закон об искусственном интеллекте подтолкнул будущее искусственного интеллекта в направлении, ориентированном на человека, в направлении, где люди контролируют технологии и где они — технологии - помогают нам использовать новые открытия, экономический рост, общественный прогресс и раскрыть человеческий потенциал", - заявил перед голосованием Драгош Тудораче, румынский законодатель, который был одним из руководителей парламентских переговоров по законопроекту.
Крупные технологические компании, как правило, поддерживают необходимость регулирования искусственного интеллекта, одновременно лоббируя, чтобы любые правила работали в их пользу. Генеральный директор OpenAI Сэм Альтман вызвал небольшой переполох в прошлом году, когда предположил, что производитель ChatGPT может уйти из Европы, если не сможет соблюдать Закон об искусственном интеллекте, — прежде чем вернуться и сказать, что планов уходить нет.
Вот краткий обзор первого в мире всеобъемлющего свода правил в области искусственного интеллекта:
Как работает Закон об искусственном интеллекте?
Как и многие нормативные акты ЕС, Закон об искусственном интеллекте изначально задумывался как законодательство о безопасности потребителей, применяющее "риск-ориентированный подход” к продуктам или услугам, использующим искусственный интеллект.
Чем рискованнее приложение ИИ, тем тщательнее оно проверяется. Ожидается, что подавляющее большинство систем ИИ с низким уровнем риска, таких как системы рекомендаций по контенту или фильтры нежелательной почты. Компании могут следовать добровольным требованиям и кодексам поведения.
При использовании искусственного интеллекта с высокой степенью риска, например, в медицинских устройствах или критически важных объектах инфраструктуры, таких как водопроводные или электрические сети, предъявляются более жесткие требования, такие как использование высококачественных данных и предоставление четкой информации пользователям.
Некоторые виды использования искусственного интеллекта запрещены, поскольку считаются представляющими неприемлемый риск, например, системы социального скоринга, которые регулируют поведение людей, некоторые виды превентивной полиции и системы распознавания эмоций в школах и на рабочих местах.
К другим запрещенным видам применения относится сканирование полицией лиц в общественных местах с использованием систем удаленной “биометрической идентификации” на базе искусственного интеллекта, за исключением серьезных преступлений, таких как похищение людей или терроризм.
А как насчет генеративного искусственного интеллекта?
Ранние проекты закона были сосредоточены на системах искусственного интеллекта, выполняющих узко ограниченные задачи, такие как сканирование резюме и заявлений о приеме на работу. Поразительный рост моделей искусственного интеллекта общего назначения, примером которого является ChatGPT от OpenAI, заставил политиков ЕС изо всех сил стараться не отставать.
Они добавили положения о так называемых генеративных моделях искусственного интеллекта, технологии, лежащей в основе систем чат-ботов с искусственным интеллектом, которые могут выдавать уникальные и, казалось бы, реалистичные ответы, изображения и многое другое.
Разработчики моделей искусственного интеллекта общего назначения — от европейских стартапов до OpenAI и Google — должны будут предоставить подробное изложение текста, изображений, видео и других данных в Интернете, которые используются для обучения систем, а также соблюдать законодательство ЕС об авторском праве.
Созданные искусственным интеллектом поддельные фотографии, видео или аудио существующих людей, мест или событий должны быть помечены как искусственно подделанные.
Проводится дополнительная проверка самых крупных и мощных моделей искусственного интеллекта, представляющих “системные риски”, к которым относятся GPT4 от OpenAI — самая совершенная система — и Gemini от Google.
ЕС заявляет, что обеспокоен тем, что эти мощные системы искусственного интеллекта могут “вызвать серьезные аварии или быть неправильно использованы для далеко идущих кибератак”. Они также опасаются, что генеративный ИИ может распространить “вредные предубеждения” во многих приложениях, затронув многих людей.
Компании, предоставляющие эти системы, должны будут оценивать риски и снижать их; сообщать о любых серьезных инцидентах, таких как сбои в работе, которые приводят к чьей-либо смерти или серьезному ущербу здоровью или имуществу; принимать меры кибербезопасности; и раскрывать, сколько энергии потребляют их модели.
Влияют ли европейские правила на остальной мир?
Брюссель впервые предложил регулирование искусственного интеллекта в 2019 году, взяв на себя привычную глобальную роль в усилении контроля за развивающимися отраслями, в то время как другие правительства изо всех сил стараются не отставать.
В октябре президент США Джо Байден подписал масштабный указ об искусственном интеллекте, который, как ожидается, будет подкреплен законодательством и глобальными соглашениями. Тем временем законодатели по меньшей мере в семи штатах США работают над собственным законодательством об искусственном интеллекте.
Что будет дальше?
Ожидается, что Закон об искусственном интеллекте официально вступит в силу к маю или июню, после нескольких заключительных формальностей, включая благословение стран-членов ЕС. Положения начнут вступать в силу поэтапно, и страны будут обязаны запретить запрещенные системы искусственного интеллекта через шесть месяцев после того, как правила войдут в свод законов.
Правила для систем искусственного интеллекта общего назначения, таких как чат-боты, начнут применяться через год после вступления закона в силу. К середине 2026 года вступит в силу полный набор нормативных актов, включая требования к системам высокого риска.
Когда дело дойдет до правоприменения, каждая страна ЕС создаст свою собственную систему контроля за искусственным интеллектом, куда граждане смогут подать жалобу, если они считают, что стали жертвой нарушения правил. Тем временем в Брюсселе создадут офис искусственного интеллекта, которому будет поручено обеспечивать соблюдение закона и надзор за системами искусственного интеллекта общего назначения.
Нарушения Закона об искусственном интеллекте могут повлечь за собой штрафы в размере до 35 миллионов евро (38 миллионов долларов), или 7% от глобальной выручки компании.
Это не последнее слово Брюсселя в отношении правил искусственного интеллекта, заявил итальянский законодатель Брандо Бенифеи, сопредседатель парламентской работы над законом. По его словам, после летних выборов может появиться больше законодательства, связанного с искусственным интеллектом, в том числе в таких областях, как искусственный интеллект на рабочем месте, которые частично охватывает новый закон.