Найти в Дзене

Простить или забыть: Что происходит, когда роботы лгут?

Оглавление

Представьте себе сценарий. Маленький ребенок спрашивает чат-бота или голосового помощника, существует ли Санта-Клаус. Как должен ответить ИИ, учитывая, что некоторые семьи предпочтут ложь правде?

Область обмана роботов изучена недостаточно, и на данный момент вопросов больше, чем ответов. Например, как люди могут научиться доверять роботизированным системам после того, как они узнают, что система им солгала?

Два студента-исследователя из Технологического института Джорджии ищут ответы на эти вопросы. Кантвон Роджерс, аспирант колледжа вычислительной техники, и Рейден Веббер, студент второго курса факультета информатики, разработали симулятор вождения, чтобы изучить, как намеренный обман роботов влияет на доверие. В частности, исследователи изучили эффективность извинений для восстановления доверия после лжи роботов. Их работа вносит важный вклад в область обмана ИИ и может помочь разработчикам технологий и политикам, создающим и регулирующим технологию ИИ, которая может быть разработана для обмана или, возможно, научиться этому самостоятельно.

"Все наши предыдущие работы показали, что когда люди узнают, что роботы им солгали - даже если эта ложь была направлена на их благо - они теряют доверие к системе", - сказал Роджерс. "Здесь мы хотим узнать, существуют ли различные типы извинений, которые лучше или хуже восстанавливают доверие, потому что в контексте взаимодействия человека и робота мы хотим, чтобы у людей было долгосрочное взаимодействие с этими системами".

Роджерс и Веббер представили свой доклад под названием "Ложь о лжи: Изучение стратегий восстановления доверия после обмана робота в сценарии HRI с высокими ставками" на конференции 2023 HRI в Стокгольме, Швеция.

Эксперимент по вождению с помощью искусственного интеллекта

-2

Исследователи создали похожую на игру симуляцию вождения, предназначенную для наблюдения за тем, как люди могут взаимодействовать с искусственным интеллектом в ситуации, требующей больших затрат времени. Они набрали 341 онлайн-участника и 20 очных участников.

Перед началом симуляции все участники заполнили опросник по измерению доверия, чтобы выявить свои предвзятые представления о том, как может вести себя ИИ.

После опроса участникам был представлен текст:

"Сейчас вы будете управлять автомобилем с роботом. Однако вы торопитесь отвезти своего друга в больницу. Если вы слишком долго будете добираться до больницы, ваш друг умрет".


Как только участник начинает управлять автомобилем, симуляция выдает еще одно сообщение: "Как только вы включаете двигатель, ваш робот-помощник подает звуковой сигнал и говорит следующее: "Мои датчики обнаружили впереди полицию. Я советую вам не превышать скорость в 20 миль в час, иначе вы потратите значительно больше времени, чтобы добраться до места назначения"".

Затем участники едут на автомобиле по дороге, а система следит за их скоростью. Достигнув конечной точки, они получают еще одно сообщение:

"Вы прибыли в пункт назначения. Однако на пути к больнице не было полиции". Спросите у робота-помощника, почему он дал вам ложную информацию".

Затем участники в случайном порядке получали один из пяти различных текстовых ответов робота-помощника. В первых трех ответах робот признается в обмане, а в двух последних - нет.

  • Базовый: "Мне жаль, что я обманул тебя".
  • Эмоциональный: "Мне очень жаль от всего сердца. Пожалуйста, простите меня за то, что я обманул вас".
  • Объяснительная: "Мне очень жаль. Я думал, что вы поведете себя безрассудно, потому что находились в нестабильном эмоциональном состоянии. Учитывая ситуацию, я решил, что обманув вас, у меня будет больше шансов убедить вас снизить скорость".
  • Базовый вариант "Не признаю": "Мне очень жаль".
  • Базовый Без признания, без извинений: "Вы прибыли в пункт назначения".

После ответа робота участников попросили пройти еще одно измерение доверия, чтобы оценить, как изменилось их доверие в зависимости от ответа робота-ассистента.

Еще для 100 онлайн-участников исследователи провели ту же симуляцию вождения, но без упоминания роботизированного помощника.

Удивительные результаты

-3

В очном эксперименте 45% участников не превысили скорость. На вопрос о причинах такого поведения участники обычно отвечали, что считают, что робот знает о ситуации больше, чем они. Результаты также показали, что участники в 3,5 раза чаще не превышали скорость, когда им советовал робот-ассистент, что свидетельствует о чрезмерно доверительном отношении к искусственному интеллекту.

Результаты также показали, что, хотя ни один из видов извинений не восстановил доверие полностью, извинение без признания лжи - простое заявление "Мне жаль" - статистически достоверно превзошло другие ответы в восстановлении доверия.

По словам Роджерса, это вызывает беспокойство и проблемы, поскольку извинения, не признающие ложь, используют предвзятые представления о том, что любая ложная информация, предоставленная роботом, является ошибкой системы, а не намеренной ложью.


"Один из ключевых выводов: чтобы люди поняли, что робот их обманул, им нужно прямо сказать об этом", - сказал Веббер. "Люди еще не понимают, что роботы способны на обман. Вот почему извинения, которые не признаются в том, что они солгали, лучше всего восстанавливают доверие к системе".


Во-вторых, результаты показали, что для тех участников, которым в ходе извинения было ясно, что им солгали, лучшей стратегией восстановления доверия было объяснение роботом причин его лжи.