Найти тему
PSI-хакер

Почему следует опасаться роботов, манипулирующих нашими эмоциями

Эмпатия - ценное качество. Однако не стоит забывать о том, что у всего есть темная сторона: эмпатией можно манипулировать, и это заставляет людей бездумно принимать участие в конфликтах. Добавьте роботов и вероятность того, что что-то пойдет не так, непременно увеличится. Дайте роботам способность проявлять сочувствие, и вероятность неприятностей станет еще больше.

Чтобы осознать проблему, необходимо понять, как работает сочувствие в нашей повседневной жизни.

Люди стремятся вызвать сочувствие, потому что это воспринимается как бонус в виде рациональной поддержки. Например, парень перед вами в автосервисе говорит мастеру, что хочет вернуть свои деньги: "В прошлом месяце вы сделали ремонт, но остались проблемы". На что мастер отвечает: "Извините, но проблема с тормозами - это совсем другая проблема, и требует нового ремонта". Слово за слово, и на ваших глазах разгорается спор. Клиент настолько зол, что кажется, едва сдерживает себя, чтобы не наброситься на мастера с кулаками.

В этот момент клиент и агент могут обратиться к вам, как к стороннему наблюдателю. Взятие сторон помогает урегулировать конфликт на стадии обострения. Когда двое против одного, тот обычно отступает. Таким образом, многие конфликты разрешаются без насилия. По сравнению с шимпанзе, у которых драки самцов часто приводят к серьезным травмам, у нашего вида есть характерная особенность - тенденция быстро выносить суждения и принимать участие в конфликтах между незнакомцами.

Когда мы принимаем чью-то сторону, мы предполагаем перспективу выбранной стороны - и отсюда короткий шаг к развитию эмоциональной эмпатии. Согласно модели эмпатии с тремя людьми, введенной Брайтоптом, это не есть хорошо, поскольку мы предполагаем, что наша позиция правильная, а другая - неправильная. Таким образом, выходит, что эмпатия способствует разделению. Кроме того, мы обычно рассматриваем поддержку как акт одобрения, который распространяется на наши последующие действия.

Теперь давайте представим, что агент в ремонтной мастерской - робот. Робот может обратиться к вам, якобы нейтральной третьей стороне, чтобы вы помогли ему убедить разочарованного клиента принять обвинение. Машина может сказать: "Пожалуйста, поверьте мне, сэр. Я ведь робот и запрограммирован не лгать."

Звучит достаточно убедительно, не так ли? Но предположим, что робот запрограммирован на изучение взаимодействий с людьми. Тогда он подхватит социальные стратегии, которые работают для его целей. И он знает, как заставить вас согласиться с его точкой зрения и выступить против других клиентов. Робот может даже обеспечить идеальное прикрытие для недобросовестного владельца гаража, который собирается заработать дополнительные деньги на ненужном ремонте.

Вы можете скептически относиться к тому, что люди будут сопереживать роботу. Социальная робототехника уже начала исследовать этот вопрос. И эксперименты показывают, что дети встанут на сторону роботов против людей, если почувствуют, что с роботами плохо обращаются.

В одном исследовании группа американских и японских ученых провела эксперимент, в котором дети играли с роботом. Позже игра была прервана одним из сотрудников, который приказал роботу возвращаться в шкаф. Робот жаловался и умолял, чтобы его не отправляли в шкаф до завершения игры. Дети указали, что они были на его стороне против сотрудника.

Известны случаи, когда сторонние наблюдатели, будучи свидетелями споров между роботом и человеком, вставали на сторону робота - эти люди испытывали что-то вроде эмпатии к машине. Так же, есть некоторые неподтвержденные данные об этом эффекте из наблюдений за роботами-регулировщиками в Киншасе. По словам фотожурналиста Брайана Сокола из The Guardian, "люди на улицах, очевидно, уважают роботов ... они не следуют указаниям полицейских". Аналогичным образом, исследование, проведенное в Гарварде, показало, что студенты были готовы помочь роботу с укрытием в жилом помещении просто потому, что он попросил впустить. Исследдователи задаются вопросами о потенциальных опасностях, связанных с тенденцией человека уважать запрос от машины, которая нуждается в помощи.

Выходит, что от роботов, которые пассивно привлекают сочувствие, всего один шаг до роботов, которые будут активно набирать посторонних защитников. Роботы смогут вызывать эмпатию в конфликтных ситуациях. Они привлекут людей на свою сторону и научатся воспринимать сигналы, которые работают. Тогда поддержка свидетелей будет означать, что роботы могут выполнять то, для чего они запрограммированы - будь то успокоение клиентов, перенаправление внимания, маркетинг продуктов или изоляция конкурентов. Машины смогут продавать пропаганду и манипулировать мнениями.

По сути, люди уже являются морскими свинками в экспериментах, проводимых производителями автомобилей с автоматическим управлением. И было бы наивно полагать, что корпорации ИИ не выберут нас в качестве подопытных кроликов в своих экспериментах по развитию человеческой эмпатии к роботам.

Конечно, роботы не будут проливать слезы, но они могут использовать различные стратегии, чтобы заставить другую (человеческую) сторону казаться чрезмерно эмоциональной и иррациональной. Это может также включать преднамеренное выбешивание оппонента. Люди станут невольными участниками механизма, все более контролируемого ИИ, способного манипулировать эмпатией. Однажды может случиться так, что мы будем сопереживать роботам и окажемся на их стороне против других людей.

Когда люди пытаются представить себе способность машины к чувствам, они представляют самоотверженных роботов-медсестер и роботов-самоубийц, ну, и возможно, секс-роботов. Всё выглядит так, будто машины служат человеку. Однако скрытые аспекты эмпатии роботов являются коммерческими интересами, которые будут стимулировать их развитие. Чьи интересы будут доминировать, когда обученные машины будут способны перехитрить не только клиентов, но и своих владельцев?

И пока исследователи будут изучать возможность запрограммирования машин на подлинную эмпатию, их внимание будет отвлечено от более насущной проблемы. Проблема заключается в том, что машины не будут "чувствовать" то, что чувствуют люди, даже если они способны определять человеческие эмоции и реагировать на них. И в ближайшем будущем не имеет значения, какие эмоции испытывают машины. Важно то, какие эмоции они могут вызывать у людей, и насколько хорошо они учатся справляться с этими человеческими реакциями и манипулировать ими. Вместо ИИ со способностью к сопереживанию, следовало бы больше беспокоиться о людях, которые неуместно сопереживают ИИ.