В нашем стремлении ограничить разрушительный потенциал искусственного интеллекта в статье Кембриджского университета предлагается внедрить дистанционные выключатели и блокировки, подобные тем, которые разработаны для предотвращения несанкционированного запуска ядерного оружия.
В документе [ PDF ] , в котором представлены мнения многих академических учреждений и нескольких представителей OpenAI, доказывается, что регулирование аппаратного обеспечения, на котором основаны эти модели, может быть лучшим способом предотвратить его неправильное использование.
«Вычисления, связанные с искусственным интеллектом, являются особенно эффективной точкой вмешательства: они поддаются обнаружению, исключению и количественной оценке, а также производятся через чрезвычайно концентрированную цепочку поставок», — утверждают исследователи.
Обучение наиболее продуктивных моделей, которые, как полагают, превышают триллион параметров, требует огромной физической инфраструктуры: десятков тысяч графических процессоров или ускорителей и недель или даже месяцев времени обработки. По словам исследователей, из-за этого существование и относительную эффективность этих ресурсов трудно скрыть.
Более того, самые передовые чипы, используемые для обучения этих моделей, производятся относительно небольшим количеством компаний, таких как Nvidia, AMD и Intel, что позволяет политикам ограничивать продажу этих товаров санкционным лицам или странам.
Эти факторы, наряду с такими как ограничения в цепочке поставок при производстве полупроводников, предлагают политикам средства, позволяющие лучше понять, как и где развернута инфраструктура искусственного интеллекта, кому разрешен и не разрешен доступ к ней, а также ввести санкции за ее неправильное использование, утверждается в документе. .
Контроль инфраструктуры
В документе освещаются многочисленные способы, с помощью которых политики могут подойти к регулированию оборудования ИИ. Многие предложения, в том числе направленные на повышение наглядности и ограничение продажи ускорителей искусственного интеллекта, уже реализуются на национальном уровне.
В прошлом году президент США Джо Байден издал указ, направленный на определение компаний, разрабатывающих крупные модели искусственного интеллекта двойного назначения, а также поставщиков инфраструктуры, способных их обучать . Если вы не знакомы, «двойное назначение» относится к технологиям, которые могут выполнять двойную функцию в гражданских и военных целях.
Совсем недавно Министерство торговли США предложило постановление, которое потребует от американских поставщиков облачных услуг внедрения более строгой политики «знай своего клиента», чтобы не допустить, чтобы санкционные лица или страны могли обойти экспортные ограничения.
Исследователи отмечают, что такая видимость ценна, поскольку она может помочь избежать новой гонки вооружений, подобной той, которая была вызвана спором о ракетном разрыве, когда ошибочные отчеты привели к массовому наращиванию баллистических ракет. Несмотря на свою ценность, они предупреждают, что выполнение этих требований к отчетности может привести к нарушению конфиденциальности клиентов и даже к утечке конфиденциальных данных.
Между тем, на торговом фронте Министерство торговли продолжает ужесточать ограничения, ограничивая производительность ускорителей, продаваемых Китаю. Но, как мы уже сообщали ранее, хотя эти усилия и затруднили таким странам, как Китай, получение американских чипов, они далеки от совершенства.
Чтобы устранить эти ограничения, исследователи предложили создать глобальный реестр продаж чипов ИИ, который будет отслеживать их на протяжении всего жизненного цикла, даже после того, как они покинут страну происхождения. По их мнению, такой реестр мог бы включать уникальный идентификатор в каждый чип, что могло бы помочь в борьбе с контрабандой компонентов.
С другой стороны, исследователи предположили, что аварийные переключатели могут быть встроены в чип, чтобы предотвратить их использование во вредоносных приложениях.
Вот как они это выразили:
В ситуациях, когда системы искусственного интеллекта представляют катастрофические риски, регулирующим органам может быть полезно проверить, что набор микросхем искусственного интеллекта работает законно, или отключить их работу (или ее часть), если они нарушают правила.
Далее они подробно остановились на этом механизме, и для нас это звучит так, как будто они предполагают, что ускорители могут автоматически отключаться или быть удаленно отключены:
Модифицированные чипы искусственного интеллекта могут поддерживать такие действия, позволяя удаленно подтверждать регулятору, что они работают законно, и прекращать работу в противном случае.
В другом месте своего исследования ученые высказываются более четко, предполагая, что регулирующие органы могут отключать или снижать функциональность процессора удаленно с использованием цифрового лицензирования:
Специализированные сопроцессоры, расположенные на чипе, могут хранить цифровой «сертификат» с криптографической подписью, а обновления политики вариантов использования могут доставляться удаленно через обновления прошивки. Разрешение на лицензию на чип может периодически продлеваться регулирующим органом, а производитель чипа может управлять им. Просроченная или незаконная лицензия может привести к тому, что чип не будет работать или снизит его производительность.
Теоретически это могло бы позволить надзорным органам быстрее реагировать на злоупотребления конфиденциальными технологиями, удаленно отключив доступ к чипам, но авторы предупреждают, что это небезопасно. Подразумевается, что в случае неправильной реализации такой аварийный переключатель может стать целью для использования киберпреступниками.
Другое предложение потребует от нескольких сторон подписаться на потенциально рискованные задачи по обучению ИИ, прежде чем их можно будет развернуть в больших масштабах. «Ядерное оружие использует аналогичные механизмы, называемые ссылками разрешительного действия», — написали они.
В случае ядерного оружия эти защитные замки предназначены для предотвращения того, чтобы один человек совершил злоупотребление и нанес первый удар. Однако для ИИ идея заключается в том, что если человек или компания хотят обучить модель в облаке, превысив определенный порог, им сначала необходимо получить для этого разрешение.
Несмотря на то, что это мощный инструмент, исследователи отмечают, что он может иметь неприятные последствия, предотвращая развитие желаемого ИИ. Аргумент, по-видимому, заключается в том, что, хотя использование ядерного оружия имеет довольно однозначный результат, ИИ не всегда такой черно-белый.
Но если вам это кажется слишком антиутопичным, статья посвящает целый раздел перераспределению ресурсов ИИ на благо общества в целом. Идея состоит в том, что политики могли бы объединиться, чтобы сделать вычисления ИИ более доступными для групп, которые вряд ли будут использовать их во зло. Эта концепция называется «распределением».
Что не так с регулированием развития ИИ?
Зачем идти на все эти неприятности? Авторы статьи утверждают, что физическое оборудование по своей сути легче контролировать.
По сравнению с аппаратным обеспечением, «другие входные и выходные данные разработки ИИ – данные, алгоритмы и обученные модели – являются легко разделяемыми, неконкурентными нематериальными благами, что делает их по своей сути трудными для контроля», говорится в документе.
Аргумент заключается в том, что как только модель будет опубликована, будь то в открытом доступе или в результате утечки информации, невозможно загнать джина обратно в бутылку и остановить его распространение в сети.
Исследователи также подчеркнули, что усилия по предотвращению неправильного использования моделей оказались ненадежными. В одном примере авторы подчеркнули легкость, с которой исследователям удалось демонтировать средства защиты в Llama 2 компании Meta, призванные предотвратить появление оскорбительных выражений в модели.
Доведенные до крайности опасения, что достаточно продвинутая модель двойного назначения может быть использована для ускорения разработки химического или биологического оружия.
В документе признается, что регулирование аппаратного обеспечения ИИ не является панацеей и не устраняет необходимость регулирования в других аспектах отрасли.
Однако участие нескольких исследователей OpenAI трудно игнорировать, учитывая попытки генерального директора Сэма Альтмана контролировать повествование о регулировании ИИ. ®