Способность генеративного искусственного интеллекта создавать контент вызывает большой ажиотаж: от создания маркетинговых материалов до перевода голосов подкастеров на разные языки. Но вместе с большими перспективами появляются и большие проблемы, включая, но не ограничиваясь ими, масштабное распространение дезинформации, особенно с помощью "дипфейков"; использование работ авторов без указания авторства; массовое сокращение рабочих мест в результате автоматизации.
Учитывая все эти потенциальные негативные факторы, правительства разных стран мира пытаются разработать нормативные акты в области ИИ, обеспечивающие безопасность и добросовестное использование, а также поощряющие инновации.
До сих пор правительство США позволяло технологическим компаниям самостоятельно разрабатывать меры защиты от искусственного интеллекта. Однако законодатели считают, что регулирование ИИ необходимо. В 2023 году они провели множество встреч с ведущими компаниями, занимающимися разработкой ИИ, от OpenAI до Nvidia. Законодатели обсуждали вопросы лицензирования и сертификации моделей ИИ с высокой степенью риска, когда это необходимо.
Между тем такие федеральные агентства, как Бюро финансовой защиты потребителей, Министерство юстиции, Комиссия по равным возможностям в сфере занятости и Федеральная торговая комиссия, заявили, что многие приложения ИИ уже подпадают под действие существующих законов.
Великобритания, где расположены такие компании, работающие в области искусственного интеллекта, как Google DeepMind и Synthesia, создающая видеоролики на основе искусственного интеллекта, хочет избежать жесткого законодательства, которое может помешать инновациям. Регулирование будет основываться на таких принципах, как безопасность, прозрачность, справедливость и подотчетность, сообщает Reuters.
Правительство Великобритании также хочет сыграть ключевую роль в регулировании ИИ. Ожидается, что 1 и 2 ноября в Великобритании пройдет первый саммит по безопасности ИИ. "Великобритания уже давно является домом для преобразующих технологий будущего", - говорится в заявлении премьер-министра Риши Сунака. "Чтобы в полной мере воспользоваться необыкновенными возможностями искусственного интеллекта, мы должны понять и устранить риски, чтобы обеспечить его безопасное развитие в ближайшие годы".
Страна планирует разделить ответственность за регулирование искусственного интеллекта между существующими регуляторами в области прав человека, здравоохранения и безопасности, а также конкуренции, а не создавать новый орган, занимающийся этой технологией, что отличается от американских регуляторов, которые обсуждали вопрос о создании независимого органа для надзора за лицензированием высокорискованных моделей искусственного интеллекта. Академики критикуют независимый регулятор, утверждая, что создание совершенно нового органа потребует времени.
В Китае поставщики генеративного ИИ должны проходить оценку безопасности, а инструменты ИИ должны соответствовать социалистическим ценностям. Однако на технологии генеративного ИИ, разрабатываемые только для использования за пределами страны, эти правила не распространяются. Китайские технологические компании, такие как Baidu, Tencent и Huawei, имеют центры исследований и разработок в Силиконовой долине.
Чтобы конкурировать с ChatGPT от OpenAI, крупнейшие интернет-компании страны - Alibaba, Baidu и JD - анонсировали собственные чат-боты с искусственным интеллектом. В прошлом Китай заявлял, что хочет стать мировым лидером в области ИИ к 2030 году, и изложил планы по коммерциализации ИИ в ряде областей - от "умных городов" до военного применения, как сообщает CNBC.
В марте Италия стала первой западной страной, временно запретившей компанию ChatGPT в связи с незаконным сбором данных. С тех пор правительство страны выделило 30 млн. евро (или 33 млн. долл. США) на помощь безработным и работникам, занимающим должности, подверженные риску автоматизации, в повышении их квалификации в области цифровых технологий.
Подписывайтесь на канал Интерескин, чтобы узнать больше об окружающем мире.