- Как регулировать революционную технологию, рассуждают профессор компьютерных наук в университете Вирджинии и старший научный сотрудник Совета по международным отношениям Себастьян Эльбаум и старший научный сотрудник Совета по международным отношениям Себастьян Маллаби
- Чрезмерно растянутый
- Иллюзия сингулярности
Как регулировать революционную технологию, рассуждают профессор компьютерных наук в университете Вирджинии и старший научный сотрудник Совета по международным отношениям Себастьян Эльбаум и старший научный сотрудник Совета по международным отношениям Себастьян Маллаби
В конце 2022 года выход ChatGPT вызвал глобальную борьбу за регулирование искусственного интеллекта. Администрация Байдена создала Институт безопасности искусственного интеллекта США — ведомство, которому поручено разработать протоколы для выявления рисков, связанных с ИИ. Канада, Япония, Сингапур, Южная Корея, Великобритания и Европейский союз создали аналогичные надзорные органы. Мировые лидеры собрались, чтобы обсудить вопросы, связанные с ИИ, в Блетчли-Парке — английском загородном поместье, где во время Второй мировой войны втайне работали дешифровщики союзников. В последующие 15 месяцев прошли конференции в Сеуле и Париже. Перед лицом технологии, которая может изменить работу, ведение боевых действий и само понимание того, что значит быть человеком, назрела необходимость политического ответа. Даже руководители коммерческих лабораторий, занимающихся разработкой ИИ, призывали к скоординированному управлению в этой сфере.
Сегодня такие призывы звучат редко. Несмотря на растущую мощь генеративных ИИ-моделей и опросы, показывающие, что общественность обеспокоена тем, что эта технология может привести к сокращению рабочих мест и другим негативным последствиям, ни представители правительства, ни руководители частного сектора не считают, что регулирование на национальном или наднациональном уровне возможно. Отчасти это объясняется инстинктивной неприязнью администрации Трампа к регулированию, особенно глобальному, но это не единственный фактор. Есть и другие веские причины не препятствовать развитию этой технологии. Бум в сфере искусственного интеллекта во многом способствует росту экономики США, и попытки помешать прогрессу могут дорого обойтись. Появление мощных китайских моделей искусственного интеллекта, таких как DeepSeek, отбило у правительства США желание препятствовать развитию отечественных лабораторий, чтобы Китай не вырвался вперед.
Даже если пузырь искусственного интеллекта лопнет, что, возможно, приведет к банкротству некоторых ведущих компаний, технологические гиганты с большими бюджетами в США и Китае продолжат ускорять внедрение ИИ. Из-за этой гонки перспективы регулирования ИИ остаются неопределенными. Но на кону слишком многое, чтобы отказываться от попыток регулирования. Рано или поздно — возможно, после какой-нибудь катастрофы, связанной с ИИ, например кибератаки на критически важную инфраструктуру со стороны злоумышленника, — эта истина станет очевидной. Искусственный интеллект предвещает социальные и психологические потрясения, по масштабу сравнимые как минимум с промышленной революцией, которая подготовила почву для целого столетия политических революций и мировых войн. В какой-то момент правительства осознают, что отказ влиять на развитие искусственного интеллекта — это самоустранение от ответственности. Разрозненные попытки регулирования в Калифорнии и других штатах США не приведут к созданию единой системы управления. Но они показывают, что многие люди не хотят бездействовать.
Однако, чтобы подготовиться к возвращению искусственного интеллекта в национальную повестку, сторонникам регулирования необходимо проанализировать недостатки своей позиции. Попытки обеспечить безопасность в 2023–2024 годах провалились отчасти из-за их масштабности. Сторонники этой инициативы, продвигаемой широким кругом активистов, указывали на длинный и пугающий список проблем, которые могут возникнуть из-за моделей искусственного интеллекта: сокращение рабочих мест, снижение уровня критического мышления в школах, угроза национальной безопасности, негативное влияние на окружающую среду, нарушение авторских прав, галлюцинации, дипфейки и многое другое. Но для того, чтобы регулирование в сфере ИИ было эффективным, его сторонники должны определить приоритеты и разработать более четкий план. Для этого они должны понимать, чем можно пожертвовать ради достижения конкурирующих целей, и бороться с распространенными заблуждениями о том, как, скорее всего, будет развиваться ИИ в будущем. Потенциальные регуляторы также должны уметь отличать действенные меры от нереалистичных. Действенные меры учитывают стимулы частных лабораторий и наделяют правительство соответствующими полномочиями. Например, «налог на риски» для частных лабораторий, занимающихся разработкой ИИ, побудил бы их инвестировать в исследования в области безопасности. А приносящее доход национальное хранилище данных предоставит государственным надзорным органам в сфере безопасности ИИ ресурсы, необходимые для мониторинга передовых моделей.
Чрезмерно растянутый
Цели сторонников политики в области искусственного интеллекта в США можно разделить на три категории. Сторонники этой политики выступают за национальную безопасность: вооруженные силы и разведывательные службы страны должны укреплять свою мощь с помощью ИИ. Они также выступают за экономическую безопасность: американские компании должны разрабатывать и внедрять ИИ, чтобы повысить свою конкурентоспособность на международных рынках. Кроме того, они хотят обеспечить общественную безопасность, которая включает в себя предотвращение вредоносных последствий использования ИИ, таких как распространение вредоносного ПО, а также защиту от безработицы и растущего неравенства, от риска использования ИИ злоумышленниками в корыстных целях и даже от научно-фантастического сценария, в котором машины уничтожают человечество. Проблема в том, что работа над достижением всех трех целей одновременно — это слишком масштабная задача, которую крайне сложно реализовать.
Рассмотрим три сценария, каждый из которых предполагает действия в двух из трех возможных категорий. В первом сценарии страна может стремиться к обеспечению как национальной, так и экономической безопасности, вкладывая максимум средств в исследования в области искусственного интеллекта, создание центров обработки данных и энергетической инфраструктуры. Такой позиции придерживается администрация Трампа. Но страна не может преследовать эти цели и одновременно обеспечивать максимальную общественную безопасность, что предполагает замедление внедрения ИИ, чтобы успеть выявить риски, связанные с безопасностью моделей, и внедрить меры по их устранению до выпуска. С другой стороны, если бы сторонникам безопасности удалось замедлить выпуск моделей, это поставило бы под угрозу национальную и экономическую безопасность. Обе стороны должны понимать, что компромисс неизбежен.
Согласно второму сценарию, страна может поставить во главу угла национальную и общественную безопасность, рассматривая ИИ как ядерную технологию и ограничивая его использование в военной и энергетической сферах, а также в других областях. Такой подход обеспечит безопасность государства и оградит общество от потрясений, предотвратит массовое сокращение рабочих мест и сведет к минимуму вероятность злонамеренного использования ИИ. Однако это поставит под угрозу экономическую безопасность, поскольку ограничит применение ИИ в коммерческих целях, не позволит отраслям экономики использовать его эффективность и обречет отечественные предприятия на отставание от международных конкурентов.
Согласно третьему сценарию, страна может поставить во главу угла экономическую и общественную безопасность, поощряя всестороннее развитие искусственного интеллекта, но при этом требуя соблюдения строгих правил безопасности до того, как модели будут представлены широкой публике. Крупные технологические компании иногда называют такой подход «ответственными инновациями». Идея заключается в том, что гонка за разработкой технологии при осторожном ее внедрении создает благотворный цикл: новаторы завоевывают доверие общественности, избегают негативной реакции со стороны общества и в долгосрочной перспективе добиваются более быстрого внедрения. Однако страна, которая сочетает быструю разработку ИИ с осторожным внедрением, может столкнуться с трудностями в обеспечении национальной безопасности. Ответственные страны могут тщательно проверять свои модели, но неосторожные конкуренты будут стремиться как можно быстрее внедрить автономное вооружение и кибервозможности, чтобы получить военное преимущество.
Иллюзия сингулярности
И без того непростая задача поиска компромиссов усложняется из-за распространенного заблуждения о том, как, скорее всего, будет развиваться искусственный интеллект: концепции «сингулярности», предложенной около 30 лет назад писателем-фантастом Вернором Винджем и позднее подхваченной такими футурологами, как Рэй Курцвейл. По словам Винджа, сингулярность — это момент, когда модели искусственного интеллекта становятся достаточно мощными, чтобы совершенствовать собственный код, запуская цикл рекурсивного самосовершенствования, который приводит к взрывному росту интеллекта.
Если согласиться с этой ментальной моделью, то решение трилеммы искусственного интеллекта становится довольно простым. Если сингулярность уже не за горами, то краткосрочные усилия по внедрению ИИ в сфере национальной безопасности тщетны: как только появится сверхразум, он полностью вытеснит существующие системы. Точно так же бессмысленно в краткосрочной перспективе стремиться к экономической безопасности с помощью внедрения ИИ в корпорациях: сверхразум изобретет революционные способы повышения производительности, возможно, даже устаревшие представления о функционировании экономики.
Если искусственный интеллект движется к внезапному прорыву в области интеллекта, то единственными важными политическими целями являются достижение сингулярности раньше конкурентов (при условии, что за этим последуют меры по обеспечению военной и экономической безопасности) и приоритет общественной безопасности за счет минимизации риска того, что развивающийся машинный интеллект подчинит себе или уничтожит более слабые биологические организмы. Такой подход, основанный на концепции сингулярности, является разновидностью концепции «ответственных инноваций». Идея состоит в том, чтобы в ускоренном темпе разработать сверхразумный искусственный интеллект, тем самым обеспечив военную и экономическую безопасность, но внедрять его с осторожностью, чтобы избежать риска, связанного с тем, что система искусственного интеллекта может атаковать людей.
Сторонники экспортного контроля Вашингтона, ограничивающего доступ Китая к чипам для искусственного интеллекта и технологиям их производства, иногда оправдывают свои действия тем, что в будущем нас ждет технологическая сингулярность. Они признают, что отказ Китая от высокотехнологичных полупроводников подтолкнет страну к разработке собственных технологий, что в долгосрочной перспективе сделает ее еще более грозным противником. Но они утверждают, что этот компромисс того стоит: технологическая сингулярность не за горами, поэтому приоритетом является замедление прогресса Китая на несколько лет, чтобы к тому моменту США уже выиграли гонку в области искусственного интеллекта. Главное — максимально использовать формулу ответственных инноваций и стать первыми, кто достигнет «безопасной сингулярности».
Слишком многое поставлено на карту, чтобы отказываться от борьбы за регулирование.
Проблема в том, что сингулярность вряд ли наступит. Конечно, ограниченная версия рекурсивного самосовершенствования уже стала реальностью: помощники в написании кода на основе искусственного интеллекта, такие как Claude от Anthropic, помогают писать код для моделей искусственного интеллекта следующего поколения. Но технологии не обретают самостоятельность сами по себе. Чтобы стать могущественным, суперинтеллект должен находиться в среде, в которой он может действовать, а в обозримом будущем такие среды будут создаваться и контролироваться людьми.
Например, сверхразумные системы вскоре смогут заменить большинство юристов. Но чтобы вытеснить людей, системы сначала должны получить доступ к нужным массивам данных, таким как информация о клиентах. Для этого разработчикам ИИ необходимо прояснить вопросы ответственности за профессиональные ошибки и получить одобрение регулирующих органов, а также защитить системы ИИ от атак и преодолеть сопротивление со стороны действующих сотрудников. После того как эти препятствия будут преодолены, сверхразумным системам нужно будет предоставить право действовать. Они должны иметь возможность составлять юридические договоры и писать код, дополняющий существующее программное обеспечение компании; они должны запускать этот код, проверять его и передавать другим системам. Каждый из этих шагов на пути к обретению самостоятельности, скорее всего, будет сопряжен с новыми юридическими и институциональными препятствиями. По всем этим причинам сверхразумные системы не смогут быстро заменить людей.
Сценарий сингулярности также не учитывает физические препятствия на пути к масштабированию искусственного интеллекта. Чтобы достичь уровня сверхразума и применять его для решения миллионов задач, системам искусственного интеллекта нужны целые стеллажи полупроводников, сложные системы охлаждения и огромное количество электроэнергии. Чтобы это стало возможным, производители чипов должны построить производственные мощности, закупить современное оборудование для нанесения схем на кремний, договориться о доступе к редкоземельным элементам и обеспечить строительство новых подстанций и линий электропередачи для национальных энергосистем.
Идея «взрыва интеллекта» неявно предполагает слишком простую обратную связь: ИИ пишет код, код улучшает ИИ, ИИ пишет более совершенный код и так далее. Но на пути к созданию сверхразума людям также приходится договариваться с правительствами о размещении новых производственных мощностей, добывать материалы, заключать энергетические контракты, привлекать капитал, учитывать риск хакерских атак и решать бесчисленное множество других проблем, с которыми могут справиться только люди.
На самом деле сверхразум, скорее всего, будет развиваться постепенно, а не в один революционный момент. По этой причине гонка между Вашингтоном и Пекином затянется, что ослабляет аргументы в пользу контроля над экспортом полупроводников. Точно так же сомнительна логика стремительного продвижения к «безопасной сингулярности», поскольку проект по достижению баланса в политике в области искусственного интеллекта будет реализовываться в течение длительного времени.
Тест на практичность
Разобравшись с трилеммой искусственного интеллекта и избавившись от заблуждений, связанных с сингулярностью, сторонники регулирования ИИ должны сделать еще кое-что. Они должны прямо заявить, что некоторые распространенные опасения по поводу ИИ не должны быть приоритетом государственной политики. Самые очевидные примеры — это преувеличенные опасения и проблемы, которые частный сектор стремится решить самостоятельно, что делает государственное регулирование излишним.
Идея о том, что модели искусственного интеллекта порождают вводящие в заблуждение «галлюцинации», относится к обеим категориям. До 2023 года большие языковые модели действительно были токсичными и ненадежными, и именно поэтому крупные исследовательские лаборатории с опаской относились к их выпуску. Однако с 2023 года количество «галлюцинаций» сократилось. По крайней мере в некоторых случаях тесты показывают, что системы искусственного интеллекта гораздо чаще дают правильные ответы, чем люди-эксперты. У исследовательских лабораторий есть все основания для того, чтобы продолжать повышать точность моделей.
Другие распространенные опасения могут быть обоснованными, но их все равно не следует включать в повестку регулирования, поскольку они непрактичны. Например, системы искусственного интеллекта угрожают рабочим местам людей, занятых в сфере интеллектуального труда. Но политикам не стоит делать сохранение рабочих мест приоритетом, потому что они мало что могут с этим сделать. Некоторые юристы, рентгенологи и голливудские сценаристы сохранят свои рабочие места, если научатся использовать искусственный интеллект. Те, кто потеряет работу, заслуживают социальной поддержки — например, безусловного базового дохода. Но замораживание технологического прогресса — нереалистичная политика.
К ограничениям на экспорт полупроводников также следует применять критерий практичности. Вводя в конце 2022 года жёсткие ограничения, администрация Байдена надеялась достичь всех трёх целей, сформулированных в трилемме. Лишение Китая доступа к лучшим чипам замедлило бы развитие его военной промышленности, тем самым укрепив национальную безопасность США. Кроме того, это помешало бы Китаю развивать бизнес-приложения на основе искусственного интеллекта, что повысило бы экономическую безопасность США. И это не позволит Китаю создавать небезопасные модели искусственного интеллекта, которые могут быть нацелены на уничтожение людей. Таким образом, Соединенные Штаты смогут требовать от своих лабораторий ответственного подхода, не опасаясь, что уступят позиции безрассудному противнику. Но, несмотря на все эти три преимущества, контроль за производством полупроводников до сих пор не помешал Китаю создавать впечатляющие модели. Остановить контрабанду чипов практически невозможно. Китайские производители могут компенсировать нехватку передовых чипов за счет большого количества менее совершенных. Китайские разработчики также могут компенсировать аппаратные ограничения за счет улучшения программного обеспечения. В результате, несмотря на санкции США, китайский сектор искусственного интеллекта стремительно развивается. В то же время контроль за производством чипов побудил Китай уделять больше внимания разработке собственных полупроводников.
Замораживание технологического прогресса — нереалистичная политика.
Как и меры по сохранению рабочих мест и ограничению производства полупроводников, политика ограничения использования моделей с открытым исходным кодом — то есть моделей, которые можно скачивать и модифицировать, в том числе таким образом, что это делает их небезопасными, — в теории привлекательна, но на практике сложна. В теории ограничение использования моделей с открытым исходным кодом предполагает отказ от экономических преимуществ, которые дает чуть более быстрое распространение ИИ, ради достижения двух других целей: национальной и общественной безопасности. Национальная безопасность выиграет, потому что иностранные противники, как государственные, так и негосударственные, больше не смогут легко получить доступ к мощным моделям с открытым исходным кодом. По тем же причинам выиграет и общественная безопасность. Меры предосторожности, которые ответственные разработчики ИИ-систем внедряют в свои проприетарные системы, могут быть исключены из открытых систем, что, например, облегчит создание ИИ-помощников, способных манипулировать сознанием. Конечно, мир, в котором все системы являются проприетарными, не будет миром без вреда: вспомните, например, дипфейковые изображения обнаженной натуры, которые по запросу генерирует модель xAI Grok. Но когда проприетарные модели выходят из-под контроля, правительства, по крайней мере, знают, какую лабораторию привлечь к ответственности.
Поскольку запретить все системы с открытым исходным кодом невозможно, сторонники ограничений часто предлагают точечный подход, утверждая, что можно ограничить доступ к самым мощным моделям с открытым исходным кодом. В конце концов, самые продвинутые модели с открытым исходным кодом производятся известными компаниями, которые могут подвергнуться давлению со стороны регулирующих органов. Некоторые разработчики, например Meta, базируются в США. Другие, такие как канадская Cohere и французская Mistral, привлекли капитал в США и надеются на его увеличение. Почти все серьезные разработчики систем с открытым исходным кодом стремятся обслуживать предприятия и домохозяйства в США или странах-союзниках.
Если бы государственные регулирующие органы могли пригрозить разработчикам лишением доступа к их финансовым спонсорам, клиентам и партнерам по центрам обработки данных, то аргументы в пользу такого жесткого контроля над открытым программным обеспечением стали бы более убедительными. Создав коалицию единомышленников, будущая администрация США могла бы усложнить для разработчиков систем с открытым исходным кодом привлечение капитала и получение прибыли в Северной Америке и Европе. Она могла бы издать указ, согласно которому владельцы крупных центров обработки данных и вычислительных мощностей, таких как Amazon, Google и Microsoft, не могут использовать непроверенные открытые модели с высоким уровнем риска. Такие шаги подтолкнут ведущие компании в сфере искусственного интеллекта к отказу от систем с открытым исходным кодом.
Но загвоздка в том, что разработчики систем с открытым исходным кодом в Китае, скорее всего, откажутся присоединяться к этой коалиции. А из-за ухудшения американо-китайских отношений у китайских лабораторий почти нет связей с американским рынком. Если китайские лаборатории продолжат выпускать мощные системы с открытым исходным кодом, то нет смысла запрещать это Meta и другим американским компаниям. Ограничение использования американских моделей с открытым исходным кодом приведет лишь к тому, что развивающиеся страны, которые, как правило, отдают предпочтение таким моделям из-за их более низкой стоимости, еще больше усилят свою и без того тревожную зависимость от китайских технологий. В отсутствие потепления в американо-китайских отношениях политика ограничения использования моделей с открытым исходным кодом не выдерживает критики с точки зрения практичности.
Примите компромиссы
Лучший путь к регулированию искусственного интеллекта — пойти на два компромисса, каждый из которых предполагает небольшие экономические издержки и большую выгоду для общественной безопасности. Первый компромисс заключается в том, что безопасность моделей — это и частное, и общественное благо. У разработчиков ИИ есть стимул создавать модели, безопасные для пользователей, что является частным благом. Но модель, которая не причиняет вреда пользователям, все равно может угрожать общественной безопасности. Например, если пользователь просит модель сгенерировать и распространить тысячи мало чем отличающихся друг от друга статей, в которых утверждается, что на выборах имело место вымышленное мошенничество, то частная лаборатория, занимающаяся разработкой ИИ, будет стремиться угодить этому клиенту и выполнит его просьбу, но такое выполнение навредит обществу, поскольку приведет к распространению дезинформации. Поскольку у частных лабораторий нет стимулов избегать подобных внешних эффектов, они не будут вкладывать достаточно средств в исследования в области безопасности.
Специальный «налог на риски» мог бы решить эту проблему. Его цель — не получение прибыли, а влияние на то, как компании распределяют свои ресурсы, чтобы больше средств направлялось на исследования в области безопасности. Например, разработчик искусственного интеллекта, потративший 1 миллиард долларов на создание модели, должен будет заплатить налог в размере 5%, что составит 50 миллионов долларов. В качестве компенсации правительство предоставит налоговый вычет в размере 25% от каждого доллара, потраченного компанией на исследования в области безопасности. Если бы лаборатория потратила еще 200 миллионов долларов на исследования в области безопасности, то сэкономленные 50 миллионов долларов компенсировали бы ее налоговые отчисления.
Лидеры отрасли возразят, что принудительные расходы на обеспечение безопасности негативно скажутся на их финансовом положении и перспективах в гонке с китайскими разработчиками, которые ничем не ограничены. Но, учитывая, что американские лаборатории в совокупности инвестируют сотни миллиардов долларов в исследования в области искусственного интеллекта, предлагаемые меры не такие уж и радикальные. Более того, инвестиции в безопасность будут препятствовать внедрению ИИ только в краткосрочной перспективе. В долгосрочной перспективе более качественные исследования в области безопасности повысят доверие общества к искусственному интеллекту, что облегчит его повсеместное внедрение и принесет сопутствующие экономические выгоды.
Увеличение расходов на обеспечение безопасности также повысит уровень общественной безопасности и принесет другие выгоды, например предотвратит вытеснение академических лабораторий, занимающихся разработкой искусственного интеллекта. По мере того как частные лаборатории монополизируют как оборудование, так и специалистов, государственные университетские исследовательские лаборатории — исторический источник технологического превосходства США — приходят в упадок. Если разрешить частным лабораториям получать налоговые льготы за счет финансирования грантов Национального научного фонда на обеспечение безопасности или предоставления доступа к вычислительным ресурсам университетским группам, то «налог на риски» вдохнет новую жизнь в академический сектор. Национальный научный фонд ежегодно выделяет около 1 миллиарда долларов на университетские программы в области компьютерных наук. Учитывая, что затраты на обучение в отрасли в разы превышают эту сумму, вклад налога на риски в развитие академической информатики будет значительным.
Государственные регулирующие органы должны иметь право накладывать вето на выпуск опасных моделей искусственного интеллекта.
Помимо стимулирования расходов на обеспечение безопасности, правительство должно активнее использовать свои собственные данные для более тесного сотрудничества с компаниями, занимающимися разработкой искусственного интеллекта. До сих пор в сборе данных, необходимых для обучения систем искусственного интеллекта, доминировал частный сектор, который черпал информацию из открытых источников и не только. Однако запасы высококачественных общедоступных текстов практически исчерпаны, поэтому инновации смещаются в сторону закрытых наборов данных, в том числе тех, которые принадлежат правительству США. В прошлом году администрация Трампа объявила о планах Министерства энергетики США опубликовать наборы научных данных, собранных 17 национальными лабораториями, чтобы частные лаборатории, занимающиеся разработкой искусственного интеллекта, могли использовать их для обучения ИИ-моделей. Эту долгожданную инициативу можно было бы распространить и на другие сферы. Например, в здравоохранении обезличенные клинические данные, хранящиеся в государственных архивах, могли бы помочь моделям диагностировать заболевания и назначать лекарства. В экономике ИИ-модели могли бы использовать обезличенные налоговые данные, которые в настоящее время недоступны широкой общественности, чтобы точнее прогнозировать изменения в структуре сбережений и потребления.
Администрация Трампа могла бы создать национальное хранилище данных под эгидой правительственного Центра стандартов и инноваций в области искусственного интеллекта (Center for AI Standards and Innovation, CAISI), который администрация Байдена изначально учредила как Институт безопасности искусственного интеллекта США. Хранилище позволило бы очистить и обезличить широкий спектр неопубликованных на данный момент правительственных данных в соответствии с высочайшими стандартами конфиденциальности, а затем предоставить к ним доступ частным разработчикам ИИ. Разработчики платили бы за данные, как они платят сейчас частным компаниям, занимающимся обработкой данных. Полученные средства будут направлены на расширение возможностей центра по мониторингу безопасности моделей искусственного интеллекта, разработанных частным сектором.
После того как CAISI получит достаточное финансирование, ему потребуются дополнительные полномочия. Администрация Байдена обязала разработчиков передовых моделей делиться информацией о безопасности с Бюро промышленности и безопасности Министерства торговли США. Администрация Трампа по глупости приостановила действие этого требования. Но помимо права на получение информации о мощных моделях, центру нужны полномочия для принятия мер. Точно так же, как Управление по санитарному надзору за качеством пищевых продуктов и медикаментов может запретить продажу небезопасных фармацевтических препаратов, государственные регуляторы в сфере ИИ должны иметь право накладывать вето на выпуск опасных моделей ИИ.
Как и в случае с налогом на риски, связанные с искусственным интеллектом, цель создания более мощного центра ИИ будет заключаться в значительном повышении уровня общественной безопасности в обмен на незначительную потерю экономической безопасности и отсутствие ущерба для национальной безопасности. Безусловно, стресс-тестирование моделей ИИ перед их выпуском повлечет за собой небольшие затраты и задержки в работе лабораторий, занимающихся разработкой ИИ. Но эти издержки будут компенсированы наличием тщательно отобранных общедоступных наборов данных для обучения ИИ, а публичная проверка моделей ускорит их внедрение. В то же время введение строгого предварительного тестирования могло бы предотвратить угрозу национальной безопасности, если бы частным лабораториям разрешили предоставлять доступ к моделям представителям оборонных и разведывательных ведомств до того, как их рассмотрит Управление по кибербезопасности и защите инфраструктуры. Таким образом, руководители служб национальной безопасности могли бы планировать использование новых моделей до того, как о них узнает весь остальной мир.
На пути к новой победе в области нераспространения
Критики этих предложений могут возразить, что не стоит облагать налогами американских разработчиков проприетарных систем, вынуждая их тратить больше на обеспечение безопасности, и создавать агентство для выявления и блокировки некачественных моделей, если есть риск, что Китай и разработчики систем с открытым исходным кодом могут создавать небезопасные модели. Но есть основания для федерального регулирования проприетарных моделей, даже если китайские модели или модели с открытым исходным кодом широко распространены. Дело в том, что проприетарные модели в США по-прежнему превосходят китайские, особенно в решении самых сложных логических и мультимодальных задач. Если цель американских регуляторов — следить за самыми инновационными, мощными и, следовательно, наиболее опасными моделями, то логично сосредоточить внимание на американских лабораториях.
Кроме того, налогообложение и регулирование проприетарного ИИ положительно скажутся на всей отрасли. Заставив проприетарные лаборатории платить за исследования в области безопасности, правительство подтолкнет их к разработке функций, повышающих безопасность всех моделей. Когда шифрование и многофакторная аутентификация только появились, они были доступны только в дорогостоящем программном обеспечении, но со временем стали повсеместными. Точно так же методологии обеспечения безопасности ИИ сначала будут уделом нишевых компаний, а затем станут отраслевым стандартом. Как только проприетарный лидер продемонстрирует ценность дополнительного модуля безопасности, любая модель с открытым исходным кодом, в которой его нет, будет восприниматься как дефектная или вредоносная. Такое давление со стороны рынка, подкрепленное возможностью центра искусственного интеллекта вносить некачественные модели в черный список, гарантирует, что инновации в области безопасности, финансируемые за счет налогов на проприетарные системы, окажут влияние на всю отрасль.
Кроме того, создание нормативно-правовой базы для проприетарного ИИ может стать отправной точкой для более масштабного проекта по управлению, который в конечном итоге приведет к заключению международного соглашения об ограничении систем с открытым исходным кодом. Сегодня одна из причин, по которой системы с открытым исходным кодом не поддаются контролю, заключается в напряженных отношениях между США и Китаем, но в какой-то момент ситуация может измениться. Во времена холодной войны периоды напряженности сменялись периодами разрядки. В 1968 году, всего через шесть лет после Карибского кризиса и в разгар войны во Вьетнаме, Соединенные Штаты, Советский Союз и более 50 других стран подписали Договор о нераспространении ядерного оружия, который успешно замедлил распространение ядерного оружия. Теперь Соединенные Штаты могли бы сделать то же самое в отношении искусственного интеллекта с открытым исходным кодом. Создав институциональную инфраструктуру для регулирования проприетарных моделей, США обеспечили бы себе еще одну победу в области нераспространения.
Сторонники регулирования искусственного интеллекта сталкиваются с непростым выбором, учитывая сложности управления быстро развивающимися технологиями и необходимость сдерживать глобальную гонку за превосходством. Приходится жертвовать некоторыми аспектами экономической, социальной или национальной безопасности. Но лучше принять эти компромиссы, чем делать вид, что их не существует. Если правительства не будут принимать взвешенных решений в отношении ИИ, технология будет развиваться и принимать решения за них.
© Перевод с английского Александра Жабского.