Найти в Дзене
Эволюционер.

Что такое "права роботов" и должны ли они быть у чат-ботов с ИИ?

Чат-боты с искусственным интеллектом в моде. От ChatGPT до новой поисковой системы Bing на базе искусственного интеллекта и нового чат-бота Bard от Google, люди одержимы тем, как они могут заменить задачи искусственным интеллектом и проверить его пределы.

Большая часть опасений исследователей и журналистов по поводу новой волны ИИ была сосредоточена на способности ботов генерировать неверные ответы и дезинформацию, а также на их способности вытеснять людей. работники. Но Дэвид Гункель, профессор коммуникационных исследований в Университете Северного Иллинойса, борется с другим вопросом: какие права должны иметь роботы, в том числе чат-боты с ИИ?

Grid поговорил с Гункелем, автором книги “Машинный вопрос: критические взгляды на ИИ, роботов и этику”, о том, что он имеет в виду, когда говорит о правах ИИ, что означает недавний всплеск внимания в будущем и чем все это закончится.

Реклама

Этот разговор был отредактирован для большей длины и ясности.

Грид: Итак, какую подоплеку вы привносите в идею ”прав роботов"?

Дэвид Гункель: Я профессор медиа-исследований в Университете Северного Иллинойса, и я специализируюсь на этике новых технологий, особенно искусственного интеллекта и роботов.В самом начале моей карьеры я понял, что все говорят об ответственности и о том, кто несет ответственность за поведение ИИ и тому подобное. Но оборотной стороной этого вопроса были права. Как мы участвуем в принятии решения о правовом статусе или статусе этих артефактов, которые мы создаем? И поэтому я сосредоточен главным образом на этой стороне вопроса. Среди нас есть несколько человек, которые вроде как специализируются в этой области, но это довольно незначительная тема в литературе.

G: Что вы имеете в виду, когда говорите о правах роботов и ИИ?

Генеральный директор: Это действительно важный вопрос, потому что, как только вы произносите слово ”права“, люди сразу же начинают: "Он, должно быть, говорит о правах человека и дает права человека роботам. Это звучит абсурдно ”. И это, по сути, абсурдно, потому что мы не говорим о правах человека. Когда мы говорим о правах, мы говорим о социальном признании, которое может быть обозначено либо с точки зрения моральной философии, либо с точки зрения закона. Поэтому мне нравится разбивать права, как [Уэсли Ньюкомб] Хофельд, который был американским юристом 1900—х годов, который говорит, что права на самом деле - это просто претензии на власть, привилегии и иммунитеты, и они всегда идут парами. Если у одного субъекта есть право, у другого субъекта есть обязанность или ответственность отвечать или уважать это право. Когда мы говорим о правах роботов или правах ИИ, мы говорим о социальной интеграции этих технологий в целях защиты наших моральных и правовых институтов.

Реклама

Как нам нужно соотнести эти вещи с нашей текущей юридической практикой, чтобы мы могли понять стоящие перед нами проблемы и возможности? Я приведу вам простой пример того, где это происходит на самом деле. В 12 штатах США теперь есть законодательные органы, которые приняли законы, дающие права роботам, работающим на тротуарах и улицах.

Это права, связанные с этими роботами-доставщиками, которые наделяют робота правами и обязанностями пешехода, когда он находится на пешеходном переходе. Теперь мы не даем ему права голоса, мы не даем ему права на жизнь. Мы просто говорим, что когда на пешеходном переходе возникает конфликт между тем, у кого есть право проезда, мы признаем, что робот действует как пешеход. Таким образом, закон признает, что они имеют те же права и обязанности, что и человек-пешеход в тех же обстоятельствах. Таким образом, это вопрос расширения наших юридических и моральных чувств, чтобы справиться с возможностями и проблемами, которые представляют для нас эти новые объекты.

G: Но некоторые люди будут бить роботов на пешеходном переходе и им все равно. Что вы думаете о распространении эмпатии или такого формулирования прав на цифровые вещи?

Генеральный директор: В отношении объектов такого рода происходит много проекций, потому что они имеют социальное присутствие. У них есть способ вторгнуться в нас, в нашу социальную сферу. И мы часто проецируем на объекты человеческие черты или черты — как мы проецируем на животных - и это называется антропоморфизмом. И часто антропоморфизм рассматривается как ошибка, которую мы должны исправить, например: “Не делайте этого; это неправильный способ думать о роботах”.

Но я думаю, что это немного экстремально. Я думаю, мы собираемся признать, что антропоморфизм - это важнейший компонент нашей социальной жизни, способ, которым мы можем общаться друг с другом, способ, которым мы способны понимать животных. То, как мы можем участвовать во всех видах социальных практик, требует, чтобы мы часто проецировали ментальные состояния на вещи, которых, возможно, там нет. И поэтому, вместо того, чтобы пытаться полностью избавиться от антропоморфизма, я думаю, мы должны научиться управлять им. И я думаю, что реальная проблема перед лицом этих новых технологий заключается в том, как мы собираемся управлять антропоморфизмом. Как мы можем наилучшим образом мобилизовать эти возможности и создать некоторые ограничения и правила, которые позволят нам надлежащим образом функционировать в среде, которая теперь населена не только людьми?

G: How do AI chatbots like ChatGPT and Bing’s fit into this framework you’re thinking about?

Д.Г.: Что действительно вызвало это, так это статья в Washington Post, в которой сотрудник, имя которого не называется, вовлек ИИ Bing в разговор; в процессе выясняется, что чат-бот выражает возмущение, не зная, что он разговаривает с журналистом, а журналистсобирается написать об этом статью.И он не дал журналисту согласия так же, как человек должен был бы сделать во время интервью - дать согласие на использование цитат из этого процесса. Теперь это то, что сказано или сгенерировано алгоритмом. С практической точки зрения это, скорее всего, будет решаться не тем, утверждает ли алгоритм, что имеет право на конфиденциальность или согласие или что-то в этом роде - скорее, компания, предоставляющая услугу, в данном случае Microsoft, скорее всего, включит в условия предоставления услуг, чтопользователи должны согласиться с некоторыми условиями использования контента. И оказывается, что Microsoft, по сути, сделала это.

Первого февраля этого года они обновили свои условия обслуживания под названием “Диалоговые возможности Bing и условия создания изображений”. Седьмой пункт в их списке условий предоставления услуг, с которыми должны согласиться пользователи продукта, гласит, что они обязаны соблюдать это соглашение и что в соответствии с соглашением об услугах Microsoft в нашем кодексе поведения вы можете использовать созданные вами творения для любых личных некоммерческих целей, которые являются законными. По сути, это своего рода требование согласия. В нем говорится, что если вы хотите коммерциализировать какой-либо контент, созданный с помощью этого алгоритма, вам запрещено это делать из-за условий предоставления услуг; если вы хотите, чтобы мы что-то сделали, предоставили вам лицензию на это или согласились на это, вам, возможно, придется связаться с Microsoft, чтобы получитьих согласие - точно так же, как вам пришлось бы связаться с родителем ребенка, если бы вы, как журналист, брали интервью у ребенка и хотели включить имя и содержание того, что говорит этот ребенок, в свою историю.

Генеральный директор: Может быть, инструментализм - лучшее слово, но я смотрю на пару вещей.Во-первых, я определенно слежу за условиями обслуживания в пользовательской лицензии, потому что эти контракты могут быть изменены очень быстро, и они могут довольно быстро масштабироваться и быть довольно гибкими для изменений на рынке по мере развертывания и использования этих вещей. Я полагаю, и мы видели это в индустрии видеоигр, что эти условия обслуживания будут развиваться и вроде как совпадать, когда у нас разразятся кризисы, а затем решения в условиях обслуживания, чтобы избежать следующего кризиса. Так что это корпоративная сторона вещей.,

Я думаю, что с общественной стороны вы обнаружите, что правительства начинают интересоваться тем, как мы регулируем этот сервис с точки зрения уязвимых пользователей, с точки зрения высшего образования, с точки зрения контента, который используется для принятия правительственных решений, законодательных процедур и тому подобного. Вы можете поспорить, что, как и все в сфере регулирования, вы, вероятно, увидите, что ЕС возьмет на себя ведущую роль в этом, потому что они, как правило, более ориентированы на законодательство в отношении законов и США. вероятно, они немного отстранены и хотят посмотреть, куда идет технология, прежде чем принимать какие-либо жесткие меры регулирования. Но я думаю, что мы увидим усилия как со стороны общественности, так и со стороны частных лиц.

G: Итак, где мы будем через 10-20 лет?

Генеральный директор: Уже было несколько громких дел, которые рассматривались в судах в области интеллектуальной собственности. Генератор ИИ создает некоторый оригинальный контент, будь то в текстовой или визуальной форме, как у вас в Stable Diffusion, Midjourney и других программах для создания произведений искусства или в музыке. Потому что прямо сейчас, с недавним примером Google с генератором музыки, кому будет принадлежать интеллектуальная собственность? Кто является владельцем авторских прав? Кто автор? Как мы присваиваем авторство такого рода вещам? И это не просто юридический вопрос - это также связано с властью: кто это говорит? И как мы оцениваем авторитетность источника контента? Потому что часто мы вкладываем авторитет в устное и письменное слово, возвращаясь к первоначальному говорящему или автору. Итак, как нам найти создателя? Как мы можем определить полномочия, стоящие за заявлением, исходящим от ChatGPT или чат-ИИ Bing?

Это одно из мест, где вы увидите, как это действительно работает, пытаясь решить не только основные и очень практические вопросы, касающиеся законодательства об интеллектуальной собственности, но и об атрибуции, полномочиях, том, кто говорит, и как мы можем закрепить эти вещи в авторстве. Потому что вы должны ссылаться на автора как на источник чего-то, верно? Я думаю, это усложняет многие стандартные практики в журналистике и академическом письме, а также указывает на кого-то, кого мы можем назвать человеком, который это сказал. Это то, что, очевидно, будет в игре.

Я думаю, что еще одна вещь, которая будет в игре, заключается в том, что эти модели строятся путем обучения их на данных, собранных из цифровых источников в Интернете — будь то книги, тексты или изображения, - это то, как кредитовать и защищать оригинальных авторов, с которых взят контент. Сейчас в области изобразительного искусства наблюдается огромный прогресс, чтобы попытаться закрепиться в этом. Таким образом, художники, чьи работы используются в качестве обучающих данных для этих алгоритмов, оказываются не у дел из-за того, что алгоритм использует их собственные работы для создания нового контента. Я думаю, что это еще одна большая проблема для креативщиков и людей в различных творческих отраслях, если, действительно, эти вещи обучаются на данных, которые легко и свободно доступны для них. Как мы можем отнести это обратно к оригинальным художникам? Как мы компенсируем оригинальным художникам обучающие данные, которые используются для этих различных моделей?