«Декларация в защиту человечества» была завершена до прошлой недели противостояния между Пентагоном и Anthropic, но столкновение этих двух событий не осталось незамеченным ни для кого из участников. — techcrunch.com
«Декларация в защиту человечества» была завершена до прошлой недели противостояния между Пентагоном и Anthropic, но столкновение этих двух событий не осталось незамеченным ни для кого из участников.
«За последние четыре месяца в Америке произошло нечто совершенно поразительное», — сказал физик из MIT и исследователь в области ИИ Макс Тегмарк, который помогал в организации этой инициативы, в беседе с этим редактором. «Опросы внезапно [показывают], что 95% всех американцев выступают против нерегулируемой гонки к суперинтеллекту».
Недавно опубликованный документ, подписанный сотнями экспертов, бывших чиновников и общественных деятелей, начинается с прямолинейного утверждения о том, что человечество стоит на распутье. Один путь, который в декларации назван «гонкой на замещение», ведет к вытеснению людей сначала в качестве работников, а затем и лиц, принимающих решения, поскольку власть концентрируется в неучтимых институтах и их машинах. Другой путь ведет к ИИ, который значительно расширяет человеческий потенциал.
Последний сценарий зависит от пяти ключевых столпов: сохранение контроля за людьми, предотвращение концентрации власти, защита человеческого опыта, сохранение личной свободы и привлечение компаний, занимающихся ИИ, к юридической ответственности. Среди более решительных положений — полный запрет на разработку суперинтеллекта до тех пор, пока не будет достигнут научный консенсус о его безопасной разработке и подлинной демократической поддержке; обязательные аварийные выключатели для мощных систем; и запрет на архитектуры, способные к самовоспроизведению, автономному самосовершенствованию или сопротивлению отключению.
Выпуск декларации совпал с неделей, которая сделала ее срочность гораздо более очевидной. Министр обороны Пит Хегсет присвоил Anthropic — чей ИИ уже работает на секретных военных платформах — статус «риска для цепочки поставок» после того, как компания отказалась предоставить Пентагону неограниченное право использования своих технологий, — метка, обычно предназначенная для фирм, связанных с Китаем. Спустя несколько часов OpenAI заключила собственное соглашение с Министерством обороны, которое, по мнению юристов, будет трудно обеспечить в каком-либо существенном смысле. Все это обнажило, насколько дорого обходится бездействие Конгресса в отношении ИИ.
Как заявил Дин Болл, старший научный сотрудник Фонда американских инноваций, сегодня в The New York Times: «Это не просто спор о контракте. Это первый разговор, который мы как страна ведем о контроле над системами ИИ».
Когда мы говорили, Тегмарк прибег к аналогии, которую большинство людей могут понять. «Вам никогда не придется беспокоиться о том, что какая-то фармацевтическая компания выпустит другой препарат, который нанесет огромный вред, прежде чем люди разберутся, как сделать его безопасным», — сказал он, — «потому что FDA не позволит им выпустить что-либо, пока это не станет достаточно безопасным».
Межведомственные войны в Вашингтоне редко вызывают такое общественное давление, которое приводит к изменению законов. Вместо этого Тегмарк видит безопасность детей как точку давления, которая, скорее всего, поможет преодолеть нынешний тупик. (Действительно, декларация призывает к обязательному тестированию продуктов ИИ перед развертыванием — особенно чат-ботов и приложений-компаньонов, ориентированных на юных пользователей — на предмет рисков, включая усиление суицидальных мыслей, обострение проблем с психическим здоровьем и эмоциональные манипуляции.)
«Если какой-нибудь жуткий старик пишет в сообщениях 11-летнему ребенку, выдавая себя за юную девушку и пытаясь убедить этого мальчика покончить с собой, этому парню грозит тюремное заключение», — сказал Тегмарк. «У нас уже есть законы. Это незаконно. Так почему же это иначе, если это делает машина?»
Он считает, что как только принцип тестирования перед выпуском будет установлен для детских продуктов, сфера его применения почти неизбежно расширится. «Люди придут и скажут: давайте добавим еще несколько требований. Возможно, нам также следует проверить, что это не может помочь террористам создавать биологическое оружие. Возможно, нам следует проверить, чтобы суперинтеллект не имел возможности свергнуть правительство США».
Широта коалиции является частью аргумента. Ее поддержал бывший советник Трампа Стив Бэннон, а также Сьюзан Райс, бывший советник по национальной безопасности США и советник президента Обамы по политике. Бывший председатель Объединенного комитета начальников штабов Майк Маллен является подписантом, как и прогрессивные религиозные лидеры.
«В чем они согласны, так это в том, что они все люди», — говорит Тегмарк. «Если дело дойдет до того, хотим ли мы будущего для людей или будущего для машин, конечно, они будут на одной стороне».
Всегда имейте в виду, что редакции могут придерживаться предвзятых взглядов в освещении новостей.
Автор – Connie Loizos