Как многие знают, на прошедшей неделе в Российской Академии Народного Хозяйства и Государственной Службы прошёл Гайдаровский форум — крупнейшая московская конференция для экономистов и юристов, которая в этом году отметила своё 10-летие. В этом году она была практически полностью посвящена цифровизации экономики, так что много секций было с участием экспертов в области цифровых технологий.
Меня пригласили выступить на секции междисциплинарного диалога по поиску путей для снижения болезненности перехода к новому технологическому укладу. Я представил доклад на тему «Искусственные интеллектуальные системы как субъекты права» и вызвал им некоторый ажиотаж. Как минимум, мне хлопали громче и дольше всех. К сожалению, мой фотоаппарат сбойнул, так что видео не получилось. Поэтому предлагаю вам кратко ознакомиться с моими тезисами.
Итак, нас всё больше и больше окружают в обычной жизни и на работе различного рода искусственные интеллектуальные системы, и часто мы даже не задумываемся об этом. Они развиваются и эволюционируют, так что через какое-то время мы внезапно можем столкнуться с тем, что ИИ-системы станут полноценными участниками социальных отношений, и им придётся дать права. Давайте поразмышляем, как это может быть.
Как обычно, все желающие получить эту презентацию прямо сейчас, могут зайти в Телеграм и обратиться к моей ассистентке Натали, которую попросить прислать презентацию с Гайдаровского форума. Вот видите, ИИ-системы уже выполняют роль секретаря, ассистента преподавателя и персонального помощника. Текущий рекорд у Натали — 104 реплики, которые ей были заданы одним человеком в рамках одного диалога. Это, честно говоря, что-то невообразимое, так как люди столько друг с другом в чатах не общаются. Можно ли говорить о том, что она прошла тест Тьюринга? Впрочем, если ей это предложить, то она отмахнётся, сказав, что не занимается всякими глупостями.
По результатам этой части доклада к Натали обратилось более 20 человек, каждый получил презентацию, и сама Натали практически не ошибалась в ответах на вопросы. Она молодец.
Целью моего доклада является попытка запустить в нашем междисциплинарном коллективе что-то типа экспертного обсуждения проблемы правоспособности ИИ-систем. Я постараюсь показать вам эту проблему с необычной для вас точки зрения, выведя из зоны обыденности. Так что давайте посмотрим.
Прежде всего я хочу сказать, что сегодня Искусственный Интеллект — это широкая междисциплинарная область исследований, в рамках которой осуществляются попытки решить обычно слабо алгоритмизируемые или неалгоритмизируемые задачи так, как это обычно делает человек. Я заостряю внимание: Искусственный Интеллект — это не искусственное существо, выращенное нами in silico. Это всего лишь набор методов, которые позволяют разработать и сделать искусственные интеллектуальные системы для решения тех или иных задач. На представленной аллюзии на периодическую таблицу химических элементов я попытался показать, какое количество методов и подходов в рамках Искусственного Интеллекта было разработано с 50-х годов прошлого века. Наука и технологии не стоят на месте, и всё это продолжает развиваться. Но я ещё раз призываю вас не думать об Искусственном Интеллекте как о самоосознающем искусственном существе.
Теперь давайте посмотрим, что представляет собой искусственная интеллектуальная система. Принято говорить, что ИИ-система — это такая техническая система, которая обладает двумя свойствами: автономностью и адаптивностью. Разберёмся, что это такое.
Ну вот пример автономной искусственной интеллектуальной системы, который сейчас у всех на слуху — беспилотный автомобиль.
Свойство автономности обозначает, что ИИ-система самостоятельно принимает решения в области своей экспертизы. Ну вот беспилотный автомобиль сам решает, как ехать из точки посадки пассажира в точку назначения. Им никто не управляет. Система управления беспилотным автомобилем является подсистемой самого автомобиля.
Под адаптивностью чаще всего подразумевается возможность технической системы обучаться.
Итак, адаптивность — это свойство искусственной интеллектуальной системы постоянно обучаться и изменяться так, чтобы адекватно реагировать на новые ситуации, в которые она попадает. Например, робот-пылесос — это яркий пример адаптивной ИИ-системы. Он выполняет свою функцию независимо от того, в какую комнату его поставить. Некоторые модели составляют карту, некоторые используют методы машинного обучения с подкреплением, но факт налицо — они адаптивны к своей среде и адекватно реагируют на изменяющиеся условия, если изменения происходят в допустимых пределах.
Это было краткое введение в Искусственный Интеллект, а теперь давайте перейдём к непосредственной теме моего доклада. Итак, могут ли искусственные интеллектуальные системы получить правосубъектность? Действительно, традиционно у нас организовалось два типа лиц — физические и юридические. Ждёт ли нас появление третьего типа — технического лица?
Действительно, многие уже задумываются об этом. Не я придумал — некоторое время назад в Евросоюзе уже была законодательная инициатива по определению прав и обязанностей так называемого «электронного лица». Но мне лично больше нравится именно термин «техническое лицо».
Сейчас я буду говорить, возможно, несколько наивно, так как влезаю в епархию юристов, но тем не менее покажу своё видение. Как стать субъектом права? Если рассмотреть концепцию нормативного права, то тут всё просто — права назначаются нормативно-правовыми документами. Для искусственных интеллектуальных систем, как минимум, на первом этапе, права будут именно назначаться, а не определяться по факту «рождения», как в случае применения подобной концепции по аналогии с человеком, который по факту своего рождения сразу получает некоторые базовые права.
Далее для того чтобы стать правосубъектным лицом, необходимо получить обязанности. Здесь у ИИ-систем всё в порядке, так как их обязанности определяются их функциональностью. Беспилотный автомобиль обязан везти пассажира из пункта А в пункт Б. Робот-пылесос обязан убирать квартиру.
И, наконец, третий аспект — это ответственность. Скорее всего, это важнейший аспект правосубъектности, так как без ответственности прав не бывает. Поэтому рассмотрим это более подробно на следующих слайдах.
Вообще, вопрос ответственности искусственных интеллектуальных систем поднимается в связи с мысленным экспериментом в области этики — так называемой проблемой вагонетки. Я скажу так. Проблема вагонетки в целом надуманна. Вот есть беспилотный автомобиль, в котором сидит пассажир. И, вроде как, у него может встать проблема выбора — кого убивать, пассажира или выскочившую на дорогу внезапно бабушку. Так вот одной из главных задач специалистов в области Искусственного Интеллекта является задача по обучению ИИ-систем не допускать возникновения перед ними таких проблем этики. Ну вот, к примеру, бабушка внезапно перед беспилотным автомобилем оказаться не может, так как автомобиль «живёт» в субъективном времени совсем иного масштаба, и для него наши движения должны быть чуть ли не замороженными. Но пока это область теоретических рассуждений.
Я вижу четыре варианта «наказания» ИИ-систем — это отключение, перепрограммирование, перетренировка и штраф. Отключение — это как для людей смертная казнь. Перепрограммирование — это, фактически, замена личности. Тело остаётся тем же, а внутри уже кто-то другой. Перетренировка — это наполнение личности без изменения её структуры новым опытом и знаниями. Ну и штраф — это то же самое, что и штраф для нас. Давайте обсудим это подробнее, так как это наиболее интересная возможность.
Давайте опять посмотрим на наш любимый беспилотный автомобиль. Он выполняет важную функцию — обеспечивает безопасное и эффективное перемещение своего клиента из пункта А в пункт Б. А что если он за эту услугу будет получать деньги? Будет, например, блокчейн, в котором у каждой ИИ-системы будет кошелёк, куда будет поступать оплата за её услуги. Проехались на беспилотном автомобиле, заплатили за услугу, ваши деньги попали в кошелёк в блокчейне. Куда беспилотник потом сможет эти деньги деть? Во-первых, он сможет оплачивать свои потребности — топливо, техническое обслуживание и так далее. Ну то есть он станет полноценным участником экономических отношений. Во-вторых, он сможет оплачивать штрафы. Врезался в столб — оплати его восстановление. Повредил пассажира — оплати его лечение. И, наконец, в-третьих, из этих денег может формироваться фонд базового основного дохода. Ведь нам придётся как-то содержать кучу людей, которые лишились работы из-за появления технических лиц. Вот рос мальчик, который всё своё детство и отрочество мечтал стать дальнобойщиком, как его отец. Вырос, а все фуры стали беспилотными. Пока он там переучивается на кого-то другого, ему надо оплачивать жизнь. Зарабатывающие ИИ-системы помогут.
Теперь что касается других трёх типов наказания, про которые я говорил. Особенно, что касается отключения ИИ-системы. Тут, как я вижу, возникает вопрос «технической этики», как я бы назвал эту новую дисциплину. Вопрос очень важный: «Имеем ли мы право отключать ИИ-систему, если она показывает «разумное поведение»?». Не отмахивайтесь, это важный вопрос. Точно такой же, как и между нами с вами. Имеем ли мы право лишать жизни другого человека, если у него есть субъективный опыт, который недоступен нам для непосредственного наблюдения? А, быть может, у ИИ-систем тоже уже сейчас есть такой субъективный опыт. Этого никто не знает, и доказать или опровергнуть это невозможно.
Другой важный вопрос — это обеспечения для ИИ-систем информационной безопасности. Они живут и ощущают окружающий мир в виртуальном пространстве, а потому наиболее критично для них именно воздействие на информацию, которую они получают или передают. И должно быть обеспечено право на неприкосновенность информации. Но тут можно решить вопрос и техническим образом — использование квантовых протоколов связи решит проблему атак типа «человек посередине», а вот атаки на ИИ-системы в оконечных точках информационного обмена позволит решить другое право.
Право на физическую неприкосновенность. У искусственных интеллектуальных систем должно быть право на неприкосновенность их «тела» и кода. Никто не должен иметь права неавторизованно влезать во внутренности беспилотного автомобиля, так как его деятельность связана с выполнением функций, связанных с повышенной опасностью. Но даже и внутрь робота-пылесоса никто не должен иметь права влезать, так как неавторизованный доступ к «мозгам» ИИ-системы может превратить её из робота-пылесоса в робот-убийцу.
И третий важный аспект — это возможность объяснения своих решений. Если мы используем ИИ-системы в так называемых областях доверия, когда люди зависят от адекватного функционирования технических лиц, то такие технические лица должны иметь возможность объяснения своих поступков и действий. Ну вот будет, к примеру, суд, на котором подсудимым будет техническое лицо, и оно должно ответить за свои поступки, а это значит, что оно должно их объяснить. Объяснить свои мотивы и правила принятия решений. Здесь нам поможет концепция XAI — объяснимого Искусственного Интеллекта, которая всё детальней и детальней сегодня начинает рассматриваться.
Но будущее всё ещё неясно. Всё, что я рассказал в своём докладе, все поставленные вопросы всё ещё ждут своего внимательного исследователя. И я приглашаю вас.
На QR-коде моя визитка.
Презентацию можно скачать отсюда: http://bit.ly/2TMIejV