Добавить в корзинуПозвонить
Найти в Дзене
DigiNews

Необходима транснациональная нормативная база для ИИ для защиты прав человека в Великобритании

Руководители техкомпаний заявили членам парламента и лордам, что приветствуют большую гармонизацию нормативных стандартов на глобальном уровне, обсуждая с регуляторами вопросы безопасности ИИ, дезинформации и подотчетности. — computerweekly.com Транснациональный характер искусственного интеллекта (ИИ) означает, что международное регулирование имеет решающее значение для решения проблем безопасности, связанных с передовым ИИ, по мнению руководителей технологических компаний. На заключительном заседании по заслушиванию доказательств Объединенного комитета по правам человека, посвященном правам человека и регулированию ИИ, 25 февраля члены Палаты общин и Палаты лордов допрашивали министра по вопросам ИИ и старших руководителей Meta* и Microsoft о достаточности существующих мер защиты для обеспечения фундаментальных прав. Законодатели расспрашивали участников заседания о дезинформации, подотчетности, безопасности детей, экзистенциальном риске и ИИ-суверенитете Великобритании, выясняя, дос
Оглавление

Руководители техкомпаний заявили членам парламента и лордам, что приветствуют большую гармонизацию нормативных стандартов на глобальном уровне, обсуждая с регуляторами вопросы безопасности ИИ, дезинформации и подотчетности. — computerweekly.com

Транснациональный характер искусственного интеллекта (ИИ) означает, что международное регулирование имеет решающее значение для решения проблем безопасности, связанных с передовым ИИ, по мнению руководителей технологических компаний. На заключительном заседании по заслушиванию доказательств Объединенного комитета по правам человека, посвященном правам человека и регулированию ИИ, 25 февраля члены Палаты общин и Палаты лордов допрашивали министра по вопросам ИИ и старших руководителей Meta* и Microsoft о достаточности существующих мер защиты для обеспечения фундаментальных прав. Законодатели расспрашивали участников заседания о дезинформации, подотчетности, безопасности детей, экзистенциальном риске и ИИ-суверенитете Великобритании, выясняя, достаточно ли сильны существующие меры защиты для обеспечения демократических прав и свобод по мере того, как системы ИИ все глубже проникают в общество. Заседание состоялось всего через несколько недель после того, как комитет предупредил, что существующая нормативно-правовая база Великобритании с трудом поспевает за вредом от ИИ, причем несколько регуляторов сообщили членам парламента, что главным препятствием для эффективного надзора является не отсутствие законодательных полномочий, а нехватка ресурсов. Джинни Баданес, генеральный менеджер по технологиям для общества в Microsoft, и Роб Шерман, заместитель главного директора по конфиденциальности по вопросам политики в Meta*, приветствовали большую гармонизацию в нормативных стандартах на глобальном уровне. Выступая по вопросам управления ИИ, Баданес заявила членам парламента, что текущая проблема заключается не в отсутствии активности, а в более серьезной проблеме фрагментации. «Иногда я беспокоюсь, что при таком разнообразии подходов мы на самом деле не решаем более широкие риски для безопасности или прав человека, которые лежат в основе того, что все вместе пытаются решить», — сказала она.

Транснациональность по своей сути

Баданес добавила, что «все в передовом ИИ является транснациональным по своей сути — системы разрабатываются, тестируются и развертываются в различных местах за пределами границ и в рамках множества цепочек поставок, а затем интегрируются в продукты, которые используются в глобальном масштабе». Она утверждала, что согласование международных стандартов может привести к базовому уровню согласия, «создавая прочную основу для выхода из фрагментированных моделей». Шерман поддержал это, отметив, что Meta* работает в большинстве стран мира, и ее политика в области прав человека применяется во всем мире. Он добавил, что Meta* не создает отдельные модели ИИ для разных стран, несмотря на региональные различия в управлении ИИ. На вопрос о том, соответствует ли План действий Великобритании по возможностям ИИ правильному балансу между инновациями и правами человека, обе компании в целом высказались положительно. Баданес заявила, что Великобритания сделала «разумное начало», опираясь на свою «прочную основу законодательства о правах человека» и применяя подход, основанный на риске. Общественное доверие, по ее мнению, «абсолютно критично» для внедрения ИИ. «Люди не примут и не будут использовать технологию, которой они не доверяют», — сказала Баданес, добавив, что сильное, но пропорциональное регулирование поможет обеспечить это доверие. Шерман охарактеризовал стратегию Великобритании как «действительно вдумчивый и разумный подход», и в некотором смысле «глобальный образец». Он также похвалил Институт безопасности ИИ Великобритании как «мирового лидера мнений» в области технического управления ИИ.

Дезинформация и демократия

Комитет спросил, делает ли Meta* достаточно для противодействия использованию ИИ иностранными субъектами в социальных сетях, выразив обеспокоенность по поводу того, как ИИ и социальные сети используются для подрыва демократических прав и свобод. Комитет отметил, что анонимные публикации становятся основным способом размещения контента в группах Facebook*. Шерман подчеркнул, что Facebook* является «платформой реальной идентичности», что означает, что личность проверяется с помощью удостоверений личности с фотографией, выданных государством, и что эти группы предназначены для того, чтобы люди могли делиться конфиденциальной информацией, не привязывая к ней свою личность. Не учитывая собственную роль платформы в распространении дезинформации, он сказал: «Я бы посоветовал людям быть внимательными к источникам информации, которую они потребляют». Однако Шерман заявил, что компания «никогда не станет утверждать, что работа в этом направлении завершена», отметив, что противники «продолжают совершенствовать свою тактику» и «ведут себя враждебно». Относительно надежности больших языковых моделей руководители признали, что системы ИИ могут генерировать ложную информацию — так называемые «галлюцинации». Хотя модели «разработаны, чтобы говорить вам правду», Шерман признал, что они не на 100% точны. Баданес добавила: «Я думаю, что невероятно сложно требовать от большой языковой модели последовательно предоставлять вам правду, отчасти из-за присущих недостатков в том, как спроектированы системы. Я ожидаю, что они будут продолжать совершенствоваться, но также и потому, что правда порой субъективна, и это сложная среда для гарантии или обеспечения чего-либо». Комитет задал вопросы о ситуациях, когда чат-боты выдают неверные или манипулятивные ответы. Баданес отметила важность общественного доверия к ИИ, заявив, что оно теряется, когда система не отвечает на вопрос. Свидетели заявили, что Facebook* и Microsoft работают над улучшением фактического согласования, предоставлением цитат и, в некоторых случаях, указанием уровней уверенности в ответах. Они также подчеркнули важность грамотности в области ИИ и управления ожиданиями относительно того, какие услуги должны предоставлять чат-боты. Самые сложные вопросы касались подотчетности. На вопрос о том, кто должен нести ответственность, если кто-то понесет ущерб после того, как положился на неверные или манипулятивные результаты работы ИИ, такие как плохие юридические советы или поощрение самоповреждения, руководители воздержались от предложения конкретной правовой базы. Баданес из Microsoft заявила, что подотчетность должна применяться «там, где существует значимый контроль», предполагая, что ответственность может варьироваться в зависимости от того, проистекает ли вред от самой модели, ее развертывания или злонамеренного пользователя. Шерман согласился, что судам, вероятно, придется рассматривать «нескольких игроков» в каждом конкретном случае.

Родительский контроль

Шерман подчеркнул, что проверка возраста часто различается в зависимости от приложения, и отметил, что стандартизированная проверка на уровне платформы отсутствует в текущей экосистеме, но была бы ценной. Баданес подчеркнула разницу в опыте использования ИИ на разных платформах. «Чат-бокс, где ребенок может формировать отношения, будет сценарием с более высоким риском, чем, возможно, обучающее приложение», — сказала она, призывая к рисковому подходу к управлению ИИ, а не к попытке применить единый возрастной порог ко всем инструментам ИИ. «Речь идет не только об ограничении доступа, нам также необходимо создавать эти дизайны, соответствующие возрасту, и защитные ограждения — речь идет о добавлении четких границ в систему с самого начала», — сказала Баданес.

Экзистенциальные риски от ИИ

На вопрос о том, должны ли люди иметь возможность полностью отказаться от ИИ, Шерман ответил, что ИИ встроен в такие сервисы, как Facebook* и Instagram* , «с самого начала», от ранжирования ленты новостей до фильтрации спама. «Я не думаю, что отказ от ИИ как технологии, вероятно, реалистичен», — сказал он, предостерегая от идеи, что можно будет «отделить ИИ от остальной части технологий». Шерман и Баданес выступили против бинарных повествований об общем искусственном интеллекте, таких как заявление об экзистенциальном риске от Центра безопасности ИИ за 2023 год, подписанное многими лидерами технологической индустрии, которое предупреждало о возможных рисках вымирания от ИИ. Шерман сказал: «Я думаю, что реальность, возможно, немного менее захватывающая и немного более обыденная, заключается в том, что технология будет продолжать совершенствоваться итеративно. Я не думаю, что мы находимся в ситуации, когда однажды проснемся, и мир станет совершенно другим». Баданес описала экзистенциальный вред как «маловероятный, но с высоким воздействием», подчеркнув, что компании сосредоточены на управлении как долгосрочными, так и немедленными опасностями. «Мы должны решать проблемы здесь и сейчас», — сказал Шерман, продолжая планировать более экстремальные сценарии. Обе компании указали на внутренние структуры управления, включая упражнения по red-teaming, консультации с внешними экспертами и рамки оценки передовых рисков. Шерман сообщил членам парламента, что в рамках программы Frontier Meta* оценивает модели на предмет «химических, биологических, кибербезопасных рисков и рисков автономности» до и после развертывания. Они также подчеркнули важность сотрудничества с правительствами, отметив, что государства обладают разведывательной информацией и информацией о национальной безопасности, недоступной частному сектору. Выступая перед комитетом на отдельном заседании, министр по вопросам ИИ Канишка Нараян высоко оценил Институт безопасности ИИ Великобритании, заявив, что он предоставляет «беспрецедентный доступ до развертывания» к передовым моделям и играет ключевую роль в разработке международных стандартов оценки. Министр по вопросам ИИ подвергся настойчивым вопросам о том, кто в конечном итоге несет ответственность за этику ИИ и возмещение ущерба в правительстве, поскольку лорды выразили обеспокоенность по поводу пробелов в регулировании, подотчетности и суверенных возможностей. Лорды также поставили под сомнение, готова ли Великобритания справиться с рисками, исходящими от передовых систем ИИ, ссылаясь на отчет Института безопасности ИИ от декабря 2024 года, в котором сообщалось о почти 100%-ном успехе атак на эти модели, которые не смогли заблокировать запросы, связанные с незаконной деятельностью и киберпреступностью. Министр защитил работу Института безопасности ИИ, ранее Института безопасности ИИ, утверждая, что смена названия отражает растущую озабоченность национальной безопасностью. Министр по вопросам ИИ признал пределы своей компетенции, уточнив, что он «определенно не несет ответственности за развертывание ИИ в государственных услугах», что входит в компетенцию другого министра. Вместо этого отдельные ведомства сохраняют за собой ответственность за этику и соблюдение нормативных требований в своих секторах. Нараян изложил трехэтапную модель увеличения ИИ-суверенитета Великобритании: обеспечение критически важных ресурсов, таких как чипы; диверсификация поставщиков для укрепления переговорной позиции; и, в конечном счете, создание отечественных возможностей. Признавая, что Великобритания не контролирует весь ИИ-«стек», он утверждал, что она обладает сильными сторонами в таких областях, как разработка чипов и ИИ для науки. «Самый важный вопрос, о котором я думаю», — сказал он, — это то, как Британия избежит «отставания» в ИИ, как это произошло в ранние волны облачных вычислений. Баданес сравнила ИИ с регулированием ядерной энергетики. «Существует множество действительно сложных проблем, которые мы, как большое общество, смогли решить, и которые имели схожие корни», — сказала она. Однако члены парламента выразили обеспокоенность по поводу исследователей ИИ, покинувших крупные компании из-за разногласий по вопросам безопасности. На вопрос о том, достаточны ли добровольные корпоративные меры защиты, Шерман ответил, что у фирм есть «четкие внутренние механизмы отчетности» и они «поощряют инакомыслие», но воздержался от призыва к обязательным глобальным договорам. Лидеры отрасли призвали политиков отдать приоритет «совместимым, основанным на риске глобальным стандартам» для наиболее мощных систем и инвестировать в инструменты происхождения контента, включая водяные знаки, для борьбы с дезинформацией. Нараян отметил, что по сравнению с первым саммитом по ИИ в Блетчли-парке, Саммит по влиянию ИИ в Индии был гораздо больше сосредоточен на повседневном опыте людей, а не на более абстрактных, долгосрочных вопросах о том, как ИИ может фундаментально трансформировать экономику, или на более долгосрочных рисках, которые он может представлять.

Facebook*, Instagram* и WhatsApp* принадлежат компании Meta* Platforms Inc., деятельность которой признана экстремистской и запрещена на территории Российской Федерации.

Всегда имейте в виду, что редакции могут придерживаться предвзятых взглядов в освещении новостей.

Автор – Charlotte Lang

Оригинал статьи