Для нас, людей, самый естественный способ описания моральной дилеммы - это использование естественного языка. Однако, учитывая нынешнее состояние искусственного интеллекта в целом и обработки естественного языка в частности, таких словесных описаний будет недостаточно для наших целей.
Моральные дилеммы должны быть представлены более абстрактно, и, как это обычно бывает в исследованиях ИИ, выбор схемы представительства чрезвычайно важен. В этой статье мы рассмотрим подход к этой проблеме, основанный на теории игр.
Игры - Теоретические схемы представления интересов
Теория игр касается моделирования сценариев, когда несколько сторон (далее - агенты) имеют разные интересы, но взаимодействуют в одной и той же области. В нем предусмотрены различные схемы естественного представительства для решения таких проблем с участием нескольких агентов. Сценарии, описанные в теории игр, включают в себя последовательности действий, которые приводят к тому, что различные агенты оказываются в разной степени в лучшем или худшем положении.
Поскольку такие моральные понятия, как эгоизм, лояльность, добросовестность и справедливость, часто влияют на то, какие действия люди предпочитают или, по крайней мере, считают, что они должны предпринимать в таких ситуациях, теория игр потенциально подходит для абстрактного представления моральных дилемм.
Одной из стандартных схем представления в теории игр является схема обширной формы, которая представляет собой обобщение деревьев игр, изучаемых на вводных курсах искусственного интеллекта. Обширная форма представления трастовой игры (точнее, ее версия, в которой игрок 1 может давать только кратности $50, а игрок 2 - только кратности $100).
Обратимся к вопросу о том, достаточно ли таких схем представительства для моделирования моральных дилемм в более общем плане в ближайшее время. Сначала мы обсудим, как решать подобные игры.
Концепции нравственных решений
Стандартные концепции решений в теории игр предполагают, что каждый агент не преследует ничего, кроме своей собственной предварительно заданной полезности. Если предположить, что в игре в доверие каждый игрок просто стремится максимизировать свой денежный выигрыш, то теория игр предписывала бы второму игроку ничего не отдавать независимо от того, сколько он получает, и, следовательно, первый игрок ничего не дает.
Однако, это не то поведение, которое наблюдается в экспериментах с человеческими субъектами. Игры, вызывающие поведение человека, которое не соответствует игровому теоретическому анализу, такие как игра доверия, часто используются для критики игровой теоретической модели поведения и привели к появлению области поведенческой теории игр.
Хотя в поведенческой теории игр часто обращают внимание на то, что люди не являются бесконечно рациональными и от них нельзя ожидать проведения полноценного игрового теоретического анализа в их голове, похоже, что это не главная причина того, что агенты ведут себя по-разному в игре доверия, которая в конце концов довольно проста. Напротив, кажется, что упрощенное игровое теоретическое решение не учитывает этических соображений.
В традиционной защите теории игр следует отметить, что полезность агента может учитывать благосостояние других, поэтому альтруизм может быть захвачен учётной записью в теории игр. Однако то, что правильно с моральной точки зрения или неправильно, также зависит от действий других игроков в прошлом.
Рассмотрим, например, понятие предательства: если другой агент сознательно позволяет мне либо действовать на благо нас обоих, либо действовать на благо себя, нанося при этом значительный вред другому агенту, то это кажется неправильным с моральной точки зрения. Это, на наш взгляд, одна из главных вещей, происходящих в игре в доверие.
Ключевым моментом является то, что для моделирования этого явления мы не можем просто сначала оценить другие предпочтения агентов, включив их в свои утилиты на выходе из игры, а затем решить проблему игры (как в случае с чистым альтруизмом). Скорее, анализ игры (ее решения) должен быть переплетен с оценкой того, должен ли агент с моральной точки зрения стремиться к благополучию другого агента. Это требует новых нравственных концепций решения в теории игр.