Роботы не захотят любить вас, они будут запрограммированы любить вас, чтобы служить коммерческим интересам своих корпоративных хозяев.
Это выглядит как мощный набор возражений против возможности робото-человеческой любви. Но не все эти возражения настолько убедительны, как кажутся на первый взгляд. В конце концов, что же убеждает нас в том, что наши собратья-люди удовлетворяют изложенным выше условиям взаимности и свободного выбора? Трудно понять, каким может быть ответ, кроме того, что они проходят через определенные поведенческие движения, которые внушают это: они ведут себя так, "как будто" они любят нас и "как будто" они свободно выбрали нас в качестве своих партнеров. Если роботы могут подражать этим поведенческим движениям, то неясно, есть ли у нас основания отрицать искренность их любви. Философ Михаэль Хаускеллер довольно хорошо сформулировал этот момент в "Мифологиях трансгуманизма" (2016):
Трудно понять, в чем должна состоять эта любовь... если не в каком-то определенном поведении любви... если поведение [нашего любовника] по отношению к нам является неизменной заботой и любовью, и уважением к нашим нуждам, то мы не знаем, что делать с утверждением, что они не любят нас на самом деле, а только кажутся, что любят нас.
То же самое касается и заботы о свободном выборе. Конечно, пресловуто спорно, есть ли у людей свободный выбор, и не только иллюзия этого; но если нам нужно верить, что наши возлюбленные свободно выбирают свои обязательства перед нами, то трудно знать, что может обосновать это убеждение, кроме некоторых поведенческих показателей, которые говорят об этом, например, их явная готовность нарушить обязательство, когда мы расстраиваем или разочаровываем их. Нет причин, по которым подобная поведенческая мимикрия должна быть вне рамок роботов. В других местах я защищал эту точку зрения на отношения между человеком и роботом под названием "этический бихевиоризм", которая заключается в том, что высшая эпистемия наших убеждений о ценности отношений заключается в обнаруживаемых поведенческих и функциональных моделях наших партнеров, а не в каких-то более глубоких метафизических истинах об их существовании.
Для некоторых этический бихевиоризм является горькой пилюлей. Несмотря на то, что он хорошо выражает свою точку зрения, Хаускеллер, приведя лишь один пример, в конечном счете не согласен с ней, когда речь идет об отношениях между человеком и роботом. Он утверждает, что причина, по которой моделей поведения достаточно для того, чтобы убедить нас в том, что наши человеческие партнеры влюблены в нас, заключается в том, что у нас нет причин сомневаться в искренности такого поведения. Проблема с роботами заключается в том, что у нас есть такие причины:
Пока у нас есть альтернативное объяснение тому, почему [робот] ведет себя так (а именно, что он был спроектирован и запрограммирован на это), у нас нет веских оснований полагать, что его действия выражают что-либо вообще.
По-другому говоря: (i) потому что робот имеет иное происхождение развития, чем человеческий любовник, и/или (ii) потому что в конечном итоге он запрограммирован (и управляется) другими людьми, у которых могут быть скрытые мотивы, нет никаких причин думать, что вы находитесь в значимых отношениях с ним.
Люди когда-то владели и контролировали других людей, но большинство из нас в конце концов увидели в этой практике нравственную ошибку.
Но (i) в этом контексте трудно обосновать. Если вы не считаете, что биологическая ткань - это магия, или если вы твердо верите в дуализм разума и тела, нет никаких оснований сомневаться в том, что робот, который поведенчески и функционально эквивалентен человеку, не может поддерживать значимые отношения. В конце концов, есть все основания подозревать, что эволюция и культура запрограммировали нас на развитие любящих привязанностей друг к другу. Может быть, трудно реверс-инжиниринговать наше программирование, но это все больше и больше верно и для роботов, особенно когда они запрограммированы с правилами обучения, которые помогают им разрабатывать свои собственные реакции на мир.
Второй элемент (ii) дает больше оснований сомневаться в значимости отношений между роботами, но возникают два момента. Во-первых, если реальное беспокойство заключается в том, что робот служит скрытым мотивам и что в какой-то момент он может предать вас, то следует помнить, что отношения с человеком чреваты аналогичными рисками. Как отмечает философ Александр Нехамас в книге "О дружбе" (2016), именно эта хрупкость и возможность предательства часто делают человеческие отношения такими ценными. Во-вторых, если речь идет о владении и контроле, то мы должны помнить, что владение и контроль - это социально построенные факты, которые могут быть изменены, если мы сочтем их морально приемлемыми. Люди когда-то владели и контролировали других людей, но мы (или, по крайней мере, большинство из нас) в конечном итоге увидели в этой практике моральную ошибку. Мы можем научиться видеть подобную нравственную ошибку в владении и управлении роботами, особенно если они поведенчески неотличимы от человеческих любовников.