Мы уже затрагивали тему искусственного интеллекта (ИИ) и связанных с ним страхов в нашем материале https://dzen.ru/a/ZMjhvp2KjWCm3wML
Сегодня наш бизнес-переводчик Анастасия Мирошкина подготовила для вас обзор The Guardian, Associated Press и The Economist о проблемах регулирования ИИ в мире.
Американские ИТ-гиганты приняли добровольные принципы регулирования развития ИИ
В 2017 году Илон Маск, выступая перед студентами Массачусетского технологического института, назвал искусственный интеллект самой большой угрозой существованию цивилизации. За два года до этого заявления он создал компанию OpenAI, которая впоследствии выпустит популярный ChatGPT, и затем вышел из проекта. В марте этого года Маск вновь призывает приостановить разработки в области ИИ, при этом объявив о создании компании xAI, которая по его задумке должна стать конкурентом ChatGPT.
Не менее противоречивы, чем слова и действия Илона Маска, прогнозы и опасения других экспертов, связанные с бурным развитием искусственного интеллекта - они говорят о возможной безработице, об ошибках, которые попадая в расчеты ИИ, множатся и приводят к неверным, но быстрым выводам. Идея о восстании машин тоже не теряет своей актуальности на бытовом уровне.
Айзек Азимов в свое время сформулировал 3 закона, обращенных к роботам:
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат первому закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит первому или второму законам.
Технологии ИИ и машинного обучения придают роботам или любой другой подключенной технике гораздо больше возможностей, поэтому вызывают ещё больше опасений.
Недавно заключённая договоренность, к которой пришли представители ИТ-гигантов, позволяет надеяться на то, что появление законодательство в сфере ИИ отстанет от скорости разработок настолько, чтобы возникли непоправимые последствия.
Основные игроки по разработкам в области искусственного интеллекта - Amazon, Google, Meta*, Microsoft и OpenAI пришли к соглашению и приняли ряд гарантий. Об этом сообщил 21 июля президент США Джо Байден. Подробнее об этике и правилах безопасности развития ИИ в мире - в статье по материалам The Guardian от 21 июля, Associated Press и The Economist.
ИИ-инструменты позволяют писать убедительные тексты, похожие на написанные человеком, создавать и компилировать изображения и другие материалы, способные ввести в заблуждение или намеренно дезинформировать потребителей контента.
Необходимость в соглашении возникла в связи с опасениями на уровне государства, бизнеса и социума, что головокружительные темпы развития ИИ могут привести к проблемам ещё до появления официальных регулирующих мер. Добровольное решение ИТ-гигантов не является юридически обязательным, но это важный шаг в качестве временной меры.
8 принципов, о которых договорились компании:
1. Разработка и внедрение водяных знаков на визуальном и аудио контенте.
2. Допуск независимых экспертов, так называемой “красной команды” к тестированию сценариев “плохого поведения”.
3. Доверительный обмен информацией, касающейся вопросов безопасности, с Правительством и другими компаниями.
4. Инвестирование в меры по кибербезопасности.
5. Поощрение усилий третьих сторон к выявлению уязвимостей в ИИ-инструментах.
6. Информирование о выявленных социальных рисках, таких как ненадлежащее использование и введение в заблуждение контентом.
7. Приоритетное внимание к исследованиям социальных рисков, связанных с ИИ.
8. Использование самых передовых систем ИИ (frontier models) для решения важнейших проблем общества.
Сомнения и мнения экспертов
Некоторые сторонники регулирования ИИ уже заявили о том, что данные договоренности можно рассматривать лишь как первые шаги, но необходимо сделать значительно больше для того, чтобы повысить ответственность разработчиков и пользователей технологии.
“История показывает, что технологические компании не всегда следуют добровольным обязательствам и не готовы ответственно соблюдать правила”, - заявил Джеймс Стайер, основатель и генеральный директор некоммерческой организации Common Sense Media.
Есть критики, утверждающие, что добровольные принципы, изложенные в информационном бюллетене Белого Дома, недостаточно учитывают то негативное влияние, которое ИИ способен оказать на общество уже сейчас. Соглашение не дает никаких рычагов воздействия на компании в случае несоблюдения договоренностей.
“Нам нужно значительно более широкое общественное обсуждение, которое наверняка поднимет те вопросы, по которым компании не готовы идти навстречу, так как это негативно бы повлияло на их бизнес-модели”, - считает Амба Как, исполнительный директор исследовательской группы AI Now Institute. “Обсуждения с корпорациями за закрытыми дверями с достижением добровольных гарантий недостаточно…Компании заявили, что будут изучать вопросы конфиденциальности, дезинформации и предвзятости, но у нас уже есть соответствующие исследования. То, что нам нужно - это подотчетность”.
“Добровольные принципы - это не больше, чем саморегулирование”, - считает заместитель директора некоммерческой исследовательской группы Electronic Privacy Information Center(Epic) Катрина Фитцджеральд. Она напомнила о том, что подобный подход когда-то уже применялся к соцсетям, но он не сработал. Эксперт также опасается, что соглашение о добровольных принципах может замедлить усилия Конгресса США по созданию полноценного регулирования.
Некоторые компании опасаются, что соглашение и последующее регулирование станет благом для для техногигантов-толстосумов во главе с Microsoft и OpenAI. Более мелкие игроки столкнутся с критическим для них увеличением стоимости приведения своих инструментов, основанных на ИИ, в соответствие с нормативными требованиями
Правительство заинтересовано в принятии закона о ИИ
Лидер парламентского большинства в Сенате Чак Шумер заявил о том, что в скором времени он представит законопроект, регулирующий ИИ. Он уже провел ряд брифингов с представителями Правительства, проинформировал сенаторов о проблемах, вызывающих беспокойство двух главных партий. К регулированию ранее призывали представители техногигантов, в мае они пообщались с Джо Байденом и Камалой Харрис, вице-президентом страны.
Сенатор Марк Уорнер сказал, что опубликованные принципы - это “только начало, нам нужно нечто большее, чем обязательства представителей отрасли”. “Мы часто слышали о приверженности безопасности разработчиков ИИ, при этом неоднократно наблюдали ускоренный выпуск продуктов, незащищенных от хакеров, генерирующих ненадежные данные, пригодные к ненадлежащему использованию”, - говорится в его заявлении.
Регулирование ИИ в мире
27 стран Евросоюза ведут переговоры об общих правилах, регулирующих создание и использование инструментов ИИ. Закон ЕС об искусственном интеллекте призван обеспечить защиту потребителей от мошенничества, нарушений конфиденциальности и предвзятости моделей ИИ с высоким типом риска.
Генеральный секретарь ООН Антониу Гутерриш заявил, что “Организация Объединенных Наций является идеальным местом, чтобы принять глобальные стандарты”. Он назначил группу, которая к концу года представит предложения о вариантах глобального регулирования ИИ. Гутерриш также приветствовал призывы ряда стран о создании международного органа по управлению ИИ в мире на базе ООН по типу Международного агентства по атомной энергии или Межправительственной группы экспертов по изменению климата.
Китай
В Китае, где свои крупные ИТ-корпорации, такие как Alibaba, Baidu, Huawei и SenseTime весной этого года представляли один за другим собственные модели искусственного интеллекта, 11 апреля были представлены внутренние правила интернет-регулятора.
По данным Администрации киберпространства Китая (CAC), компании должны перед внедрением ИИ-инструментов для населения предоставлять государству комплексную оценку их безопасности. Компании будут нести ответственность за контент, создаваемый их инструментами. Контент не должен подрывать основы государственности подстрекать к распаду страны, наносить ущерб национальному единству или нарушать существующий экономический и социальный порядок Китая.
*Meta признана экстремистской и запрещена в России.