Рассматривая проблемы с внедрением, мы отмечаем некоторые аспекты использования, в том числе то, как ИИ должен взаимодействовать с клиентами.
Клиенты не связывают приложения искусственного интеллекта с автономными целями. Например, клиенты не верят, что AlphaGo компании Google преследует цель стать лидером национального Go. Скорее, они считают, что это приложение искусственного интеллекта запрограммировано на игру Go.
В соответствии с этим мнением, клиенты с большей вероятностью сосредоточатся на том, "как" (а не "почему") приложение ИИ работает; это означает, что при взаимодействии с ИИ клиенты будут иметь низкий уровень понимания.
Из существующих исследований мы знаем, что сообщения являются более эффективными, когда воспринимаемые характеристики источника сообщения и содержание фактического сообщения совпадают, сообщения от ИИ должны быть более эффективными, когда в них подчеркивается, как, а не почему.
В соответствии с вышеизложенным, видно, что сообщение от приложения для искусственного интеллекта является более убедительным, когда речь идет о том, как использовать продукт, а не о том, зачем использовать этот продукт. Это связано с тем, что клиенты сомневаются в том, что ИИ может "понять" важность определенного поведения потребителей.
Далее о факторах, влияющих на склонность клиентов к взаимодействию с ИИ.
Когда принимаются медицинские решения, оказывается, что резервирование клиентов обусловлено их опасениями по поводу игнорирования уникальности (т.е. ИИ воспринимается как менее способный идентифицировать и связать с уникальными особенностями клиентов). Эти оговорки в большей степени относятся к клиентам, имеющим более высокие оценки по шкале "личного чувства уникальности".
В действительности, боты ИИ могут быть так же эффективны, как и обученные продавцы, и в 4 раза эффективнее неопытных продавцов. Однако, если выяснится, что покупатель общается с ИИ-ботом, то закупочные цены снизятся на 75%. Клиенты воспринимают ИИ-ботов как менее чутких и поэтому покупают меньше.
Внедрение искусственного интеллекта имеет ряд трудностей психологического характера.
Потребители, по-видимому, придерживаются более высоких стандартов, чем это предусмотрено нормативными документами, как, например, в случае беспилотных самолётов автомобилей.
Клиенты должны использовать искусственный интеллект, если его применение приводит к значительному сокращению числа несчастных случаев; вместо этого, клиенты устанавливают более высокие стандарты и стремятся к тому, чтобы не допускать несчастных случаев с искусственным интеллектом.
Понимание корней этой чрезмерной осторожности имеет важное значение. Предварительная гипотеза предполагает, что потребители меньше доверяют ИИ, и поэтому придерживаются более высоких стандартов, поскольку считают, что ИИ не может "чувствовать".
Характеристики задач также влияют на принятие ИИ. В той степени, в какой задание кажется субъективным, предполагающим интуицию или воздействие, клиенты чувствуют себя менее комфортно по отношению к искусственному интеллекту.
Также клиенты менее склонны использовать искусственный интеллект для решения задач, связанных с субъективностью, интуицией и влиянием, поскольку они считают, что искусственный интеллект не обладает необходимыми для выполнения таких задач эмоциональными способностями или сочувствием.
Задачи различаются по своим последствиям; выбор фильма относительно менее последователен, но управление автомобилем может повлечь за собой больше последствий. Использование искусственного интеллекта для решения последующих задач воспринимается как сопряженное с большим риском, что, в свою очередь, снижает намерения.
Наконец, характеристики потребителей могут также влиять на внедрение искусственного интеллекта.
Рассмотрим из двух точек: когда результаты являются последовательными, это увеличивает восприятие риска и второе-женщины воспринимают риск в целом и склонны к нему меньше.
Это говорит о том, что женщины (по сравнению с мужчинами) с меньшей вероятностью примут ИИ, особенно в тех случаях, когда результаты имеют последствия.
Помимо демографических факторов, на масштабы внедрения искусственного интеллекта влияют и другие факторы. Например, если задача имеет важное значение для идентичности клиента, вероятность того, что клиент воспользуется искусственным интеллектом, может быть ниже.
Подробнее, если определенная потребительская активность играет центральную роль в идентификации потребителя, то потребитель предпочитает брать на себя ответственность за результаты потребления.
Некоторые клиенты считают, что использование искусственного интеллекта для этих целей равнозначно мошенничеству, и это препятствует присвоению кредита после потребления.
Таким образом, если какая-либо деятельность играет центральную роль в идентификации клиента, то вероятность того, что клиент воспользуется искусственным интеллектом (для этой деятельности), может быть ниже.