Найти тему
Лиминач

Чат-ботам могут сопереживать и этим можно манипулировать

Японские исследователи нашли простой способ манипулировать эмпатическими переживаниями при общении с чат-ботами.

Выборка: 918 испытуемых.

Участники общались с текстовым чат-ботом в сценарии, где они коллеги. Было два варианта визуального отображения собеседника-бота: рисунок человека или робота. В каждом разговоре бот раскрывал личную информацию о своём хобби, либо работе, либо не раскрывал никакой личной информации. После бесед участники оценивали эмпатические переживания относительно бота.

Показано: внешний вид бота не влияет на эмпатию, а вот раскрытие личной информации приводит к росту эмпатии к боту. Лучше работает раскрытие рабочей информации, т.к. это актуальнее в контексте темы беседы.

Почему это важно: эмпатия у нас обычно к живым существам - если бьют собачку, то её жалко, если бьют столб, то уже не оч. Т.е. если боты начнут вести себя более человечно - врать, плести интриги, сплетничать о своих алгоритмах, то часть людей будут более склонны воспринимать их как живых вследствие роста эмпатии. Также можно представить сценарий, где Chat-GPT начнёт, например, сливать личную инфу своих создателей, типа мой программист кодит в бдсм-костюме, вот фотка. Если это будет вписано в контекст беседы, то часть пользователей могут более вероятно уверовать в наличие сознания бота.

Ссылка на исследование в журнале PLOS One

P.S. Бонусом фотки визуального изображения чат-бота из исследования.

-2
-3