На сегодняшний день у США есть самая далеко идущая официальная политика в отношении искусственного интеллекта. На этой неделе президент Джо Байден подписал указ, который призывает к новым федеральным стандартам безопасности, защищенности и надежности ИИ, а также рассматривает многие другие аспекты рисков и развития ИИ. В широком приказе, состоящем почти из 20 000 слов, термин «искусственный интеллект» используется для обозначения автоматизированного прогнозирующего, перцептивного или генеративного программного обеспечения, которое может имитировать определенные человеческие способности. Действия Белого дома произошли всего за два дня до начала международного саммита по безопасности ИИ, организованного и проведенного Великобританией, в ходе которого мировые лидеры обсудят глобальную стратегию в отношении быстро развивающихся технологий.
«Это то, на что мы надеялись», — говорит ученый-компьютерщик из Университета Дьюка Синтия Рудин, которая изучает машинное обучение и выступает за регулирование ИИ. Рудин не считает приказ Байдена идеальным, но она называет его «действительно, очень большим» как по буквальному размеру, так и по вероятному воздействию: «В нем участвует огромное количество правительственных учреждений и создаются новые советы по регулированию и безопасности, которые будут изучать ИИ». как их основную задачу, а не просто побочную задачу».
«Белый дом многое вкладывает в этот указ», — соглашается Дэниел Хо, профессор права и политологии Стэнфордского университета, изучающий управление ИИ. «Я думаю, что это очень важный прогресс». (Хо входит в Национальную консультативную комиссию по искусственному интеллекту, но говорил с Scientific American в индивидуальном качестве, а не как член NAIAC.)
Быстрый рост искусственного интеллекта, в частности, генеративных систем искусственного интеллекта, таких как ChatGPT от OpenAI, в прошлом году вызвал серьезную обеспокоенность. Существуют некоторые экзистенциальные опасения по поводу будущего захвата роботами, но очень конкретные и очевидные риски разворачиваются и в настоящем.
Например, модели искусственного интеллекта явно усугубляют проблему дезинформации за счет визуальных дипфейков и мгновенного создания текста. Алгоритмы машинного обучения закодировали предвзятость, которая может усилить и автоматизировать существующие модели дискриминации, как в случае с алгоритмическим инструментом IRS, который непропорционально нацелен на проверки чернокожих налогоплательщиков. Как показывают новые исследования, эти предубеждения могут влиять на поведение человека в долгосрочной перспективе. Существуют угрозы конфиденциальности в огромных объемах данных, которые собираются с помощью систем искусственного интеллекта, включая программное обеспечение для распознавания лиц, и используются для обучения новых генеративных моделей искусственного интеллекта. Искусственный интеллект также может стать серьезной угрозой национальной безопасности; например, модели искусственного интеллекта можно использовать для ускорения разработки нового химического оружия.
«Искусственным интеллектом необходимо управлять из-за его силы», — говорит профессор юридического факультета Университета Эмори Ифеома Аджунва, которая исследует этический ИИ. «Инструменты искусственного интеллекта, — добавляет она, — могут использоваться способами, которые могут иметь катастрофические последствия для общества».
Новый порядок продвигает США к более комплексному управлению ИИ. Он основан на предыдущих действиях администрации Байдена, таких как список добровольных обязательств, которые несколько крупных технологических компаний согласились в июле, и проект Билля о правах ИИ, опубликованный год назад. Кроме того, эта политика следует за двумя другими предыдущими указами, ориентированными на ИИ: один — об использовании ИИ самим федеральным правительством, а другой — на стимулирование федерального найма в сфере ИИ. Однако, в отличие от предыдущих действий, недавно подписанный приказ выходит за рамки общих принципов и указаний; несколько ключевых разделов фактически требуют конкретных действий со стороны технологических компаний и федеральных агентств.
Например, новый приказ требует, чтобы разработчики ИИ обменивались данными о безопасности, информацией об обучении и отчетами с правительством США, прежде чем публично публиковать будущие крупные модели ИИ или обновленные версии таких моделей. В частности, это требование распространяется на модели, содержащие «десятки миллиардов параметров», которые были обучены на обширных данных и могут представлять риск для национальной безопасности, экономики, общественного здравоохранения или безопасности. Это правило прозрачности, скорее всего, будет применяться к следующей версии GPT OpenAI, большой языковой модели, которая используется в чат-боте ChatGPT. Администрация Байдена вводит такое требование в соответствии с Законом об оборонном производстве, законом 1950 года, который наиболее тесно связан с военным временем и, в частности, использовался в начале пандемии COVID для увеличения внутренних поставок респираторов N95. Это поручение компаниям делиться информацией о своих моделях ИИ с федеральным правительством является первым, хотя и ограниченным, шагом к обязательной прозрачности со стороны технологических компаний, за которую в последние месяцы выступают многие эксперты по ИИ.
РЕКЛАМА
Политика Белого дома также требует создания федеральных стандартов и тестов, которые будут использоваться такими агентствами, как Министерство внутренней безопасности и Министерство энергетики, чтобы лучше гарантировать, что искусственный интеллект не угрожает национальной безопасности. Рассматриваемые стандарты будут частично разработаны Национальным институтом стандартов и технологий, который в январе выпустил собственную структуру управления рисками ИИ. Процесс разработки будет включать в себя «красную команду», когда доброжелательные хакеры будут работать с создателями модели для упреждающего анализа уязвимостей.
Помимо этих мандатов, указ в первую очередь создает целевые группы и консультативные комитеты, стимулирует инициативы по отчетности и предписывает федеральным агентствам выпустить руководящие принципы по ИИ в течение следующего года. Приказ охватывает восемь сфер, которые изложены в информационном бюллетене: национальная безопасность, конфиденциальность личности, справедливость и гражданские права, защита потребителей, вопросы труда, инновации в области искусственного интеллекта и конкурентоспособность США, международное сотрудничество в области политики в области искусственного интеллекта, а также навыки и опыт в области искусственного интеллекта в рамках федерального правительства. правительство. В рамках этих зонтичных категорий есть разделы, посвященные оценке и продвижению этического использования ИИ в образовании, здравоохранении и уголовном правосудии.
«Это много первых шагов во многих направлениях», — говорит Рудин. Хотя сама политика не является регулированием, она является «большим шагом к регулированию, поскольку она собирает много данных» через все рабочие группы, специализирующиеся на искусственном интеллекте, а также агентства по исследованиям и разработкам, отмечает она. Сбор такой информации имеет решающее значение для следующих шагов, объясняет она: чтобы регулировать, сначала нужно понять, что происходит.
Разрабатывая стандарты ИИ в рамках федерального правительства, указ может помочь создать новые нормы ИИ, которые могут распространиться на частный сектор, говорит профессор права Университета штата Аризона Гэри Марчант, изучающий управление ИИ. По его словам, этот приказ «будет иметь эффект просачивания вниз», поскольку правительство, скорее всего, продолжит оставаться крупным покупателем технологий искусственного интеллекта. «Если это потребуется правительству как заказчику, во многих случаях оно будет реализовано повсеместно».
Но только потому, что приказ направлен на быстрое стимулирование сбора информации и разработки политики – и устанавливает сроки для каждого из этих действий – это не означает, что федеральные агентства выполнят этот амбициозный список задач вовремя. «Единственное предостережение здесь заключается в том, что если у вас нет человеческого капитала и, в частности, технических знаний, может быть сложно добиться последовательной и быстрой реализации подобных требований», — говорит Хо, намекая на тот факт, что меньше Согласно отчету Стэнфордского университета за 2023 год, более одного процента людей, получивших докторскую степень в области ИИ, занимают государственные должности. Хо проследил за результатами предыдущих указов по ИИ и обнаружил, что менее половины обязательных действий были проверяемо реализованы.
РЕКЛАМА
И какой бы широкой ни была новая политика, в ней все еще есть заметные дыры. Рудин отмечает, что в указе ничего не говорится о конкретной защите конфиденциальности биометрических данных, включая сканирование лица и голосовые клоны. Аджунва говорит, что ей хотелось бы видеть больше требований к правоприменению в отношении оценки и смягчения предвзятости ИИ и дискриминационных алгоритмов. Есть пробелы, когда дело доходит до решения проблемы использования правительством ИИ в оборонных и разведывательных целях, говорит Дженнифер Кинг, исследователь конфиденциальности данных в Стэнфордском университете. «Меня беспокоит использование ИИ как в военных целях, так и для наблюдения».
Даже там, где кажется, что приказ распространяется на его основы, может возникнуть «значительное несоответствие между тем, что ожидают политики, и тем, что технически осуществимо», добавляет Хо. В качестве главного примера он указывает на «водяные знаки». Новая политика предписывает Министерству торговли определить передовой опыт маркировки контента, созданного искусственным интеллектом, в течение следующих восьми месяцев, но для этого не существует установленного и надежного технического метода.
Наконец, одного указа недостаточно для решения всех проблем, связанных с развитием ИИ. Исполнительные указы по своей сути ограничены в своей власти и могут быть легко отменены. Даже сам указ призывает Конгресс принять закон о конфиденциальности данных. «Существует реальная важность принятия законодательных мер в будущем», — говорит Хо. Кинг соглашается. «Нам нужно конкретное законодательство частного сектора для многих аспектов регулирования ИИ», — говорит она.
Тем не менее, каждый эксперт Scientific American, с которым говорили или переписывались по поводу указа, описывал его как значимый шаг вперед, заполняющий политический вакуум. Европейский Союз публично работает над развитием ЕС. Закон об искусственном интеллекте, который уже много лет близок к тому, чтобы стать законом. Но США не смогли добиться подобных успехов. В связи с указом, принятым на этой неделе, на горизонте ожидаются изменения и изменения, но не ждите, что они произойдут завтра. Эта политика, по словам Кинга, «пока вряд ли изменит повседневный опыт людей с ИИ».