4. Обсуждение
В этой работе мы предполагаем, что гуманоидный робот может быть использован в качестве детектора лжи, используя известные поведенческие сигналы, представляющие человеческие взаимодействия, связанные с обманом. Мы принесли доказательства, что наша гипотеза верна. Для проверки ее:
- во-первых, мы показали, что не было никакой разницы между поведенческими показателями, связанными с обнаружением лжи, когда взаимодействие между человеком и человеком и роботом - интервьюером.
- во-вторых, мы подготовили модель машинного обучения для обнаружения лжи, демонстрирующую, что роботизированная система может быть использована для обнаружения лжи во время взаимодействия человека и робота.
Цель исследования была решена путем разработки сценария HRI, при котором участники должны лгать или говорить правду на основе вопросов, основанных на преступлении, свидетелем которого они являются. Поведенческие сигналы, зафиксированные в ходе эксперимента, были проанализированы с помощью трехмерных повторяющихся измерений ANOVA для исследования любой статической разницы между реакциями на человека и гуманоидального робота-исследователя. Результаты показали, что только черты, связанные с глазами (среднее расширение зрачка, фиксация и минимальное расширение зрачка), существенно меняются в зависимости от природы агента. Однако при взаимодействии человека и человека с роботом различия в глазах или речевых признаках между ложными и истинными реакциями были схожими (нет существенного взаимодействия между истинностью и агентом-типом). В частности, время ответа, красноречие (т.е. длительность ответа), количество саккад, а также среднее и минимальное расширение зрачка различались между истинными и ложными ответами. Эти результаты продемонстрировали жизнеспособность использования гуманоидного робота в качестве интервьюера. Действительно, разница в величине среднего и минимального расширения зрачка в присутствии робота - интервьюера по сравнению с человеком - интервьюером не влияет на способность различать лжецов и правдителей.
На основании этих результатов было проверено, можно ли на экспериментальных данных обучить алгоритм машинного обучения построению детектора лжи. Предпочтительным алгоритмом машинного обучения был выбран случайный лес. В первом обобщении было рассмотрено, как обучить модель обнаружения лжи, генерируемой новыми людьми, построить универсальный детектор лжи. Для решения этой задачи было отобрано подмножество участников для обучения модели, а остальные - для тестирования. Сначала рассматривался полный набор данных независимо от типа агента с двумя различными наборами признаков (глаза, речевые особенности и психологические черты). Лучшая модель достигла точности 69% и получила оценку AUCROC 0,74 (табл. 1). Глядя на ошибки классификации, видно, что модель обнаружила 82% ложных срабатываний, но с точностью 65%. Удивительно, но добавление психологических признаков снизило производительность модели с падением точности, но способствовало росту чувствительности. Такой результат привел нас к гипотезе о том, что психологический профиль, похоже, не влияет на результаты классификации. Поэтому мы сосредоточились на особенностях глаз и речи, чтобы проверить дальнейшую обобщенность нашего подхода. В пилотном исследовании были отслежены те же маркеры, которые позволили протестировать модель без адаптации входного вектора. Более того, изменения, оперировавшие с открытыми вопросами, дали более надежную оценку истинной общности нашего подхода. Модель достигла точности 63% при отметке AUCROC 0,69. Модель все еще смогла обнаружить 68% лжи, но дала много ложных срабатываний.
Далее было исследовано, как изменится эффективность классификации, принимая во внимание тип интервьюера. Для решения этой задачи было создано два дополнительных набора данных, каждый из которых был связан с типом интервьюеров (робот, человек). Лучшая модель, обученная поведенческим подсказкам в наборе данных робота, получила оценку AUCROC 0.76 с точностью до 65%. Модель смогла правильно определить 88% лжи, но с точностью 60%. Для сравнения, лучшая модель из человеческого набора данных показала лучшие результаты по точности, но с меньшей оценкой AUCROC. Добавление психологических признаков лишь незначительно улучшило классификацию для набора человеческих данных. Кроме того, для набора данных робота снизилась производительность. Глядя на ошибки, допущенные обеими моделями, можно увидеть, что для обоих наборов данных психологические характеристики повысили чувствительность моделей, но снизили точность данных робота, объяснив падение точности. Как и прежде, обе модели были оценены по данным пилотного исследования. Модель, обученная по набору данных человеческого интервьюера, показала лучшие результаты, чем модель, обученная по набору данных робота, с повышенной точностью и оценкой AUCROC. Анализируя ошибки классификации, модель, обученная на основе данных, полученных от человека, обнаружила меньше лжи, чем модель, обученная на основе данных, полученных от робота, но дала меньше ложных срабатываний.
"Всем спасибо за внимание! Ставьте лайки и подписывайтесь на канал!"