Найти в Дзене
НаучПопОбр

Искусственные советники по морали: почему мы не готовы доверять ИИ?

Психологи, тонкие сущности человеческих индивидов, отмечают, что отсутствие у ИИ человеческого опыта и настоящего понимания ограничивает его способность принимать важные моральные решения. Искусственные советники по морали (ИСМ) — это системы на базе ИИ, которые разрабатываются, чтобы помочь людям делать этические выборы, опираясь на известные моральные теории. Хотя такие системы уже разрабатываются, они пока не могут давать последовательные и объективные советы человеку, что делает их применение в реальных ситуациях ограниченным. Учёные-практики принимавшие участие в исследовании, проведённом Школой психологии Кентского университета изучили, как люди воспринимают искусственных советников по морали. Исследование обнаружило, что люди склонны больше доверять рекомендациям, которые дают другие люди, даже если рекомендации ИИ и людей одинаковы. Особенно это касается ситуаций, когда речь идёт об утилитарных принципах (максимизации пользы для большинства), в то время как неутилитарные (соблю
Оглавление

Психологи, тонкие сущности человеческих индивидов, отмечают, что отсутствие у ИИ человеческого опыта и настоящего понимания ограничивает его способность принимать важные моральные решения. Искусственные советники по морали (ИСМ) — это системы на базе ИИ, которые разрабатываются, чтобы помочь людям делать этические выборы, опираясь на известные моральные теории.

Искусственные советники по морали: почему мы не готовы доверять ИИ
Искусственные советники по морали: почему мы не готовы доверять ИИ

ИИ и мораль: почему люди не доверяют роботам в этических вопросах?

Хотя такие системы уже разрабатываются, они пока не могут давать последовательные и объективные советы человеку, что делает их применение в реальных ситуациях ограниченным. Учёные-практики принимавшие участие в исследовании, проведённом Школой психологии Кентского университета изучили, как люди воспринимают искусственных советников по морали.

Исследование обнаружило, что люди склонны больше доверять рекомендациям, которые дают другие люди, даже если рекомендации ИИ и людей одинаковы. Особенно это касается ситуаций, когда речь идёт об утилитарных принципах (максимизации пользы для большинства), в то время как неутилитарные (соблюдение моральных норм) рекомендации ИИ воспринимаются более положительно.

Это подтверждает, что люди больше ценят моральные ориентиры, основанные на человеческих ценностях, чем на чисто логических выводах.

Искусственные советники по морали: почему мы не готовы доверять ИИ
Искусственные советники по морали: почему мы не готовы доверять ИИ

Почему ИИ проигрывает людям в вопросах морали?

Особенно это заметно, когда ИИ предлагает решения, которые ориентированы на «большее благо» — например, утилитарные принципы, которые учитывают интересы большинства. В таких ситуациях люди склонны доверять не ИИ, а советникам, которые придерживаются более строгих моральных норм, даже если это ведёт к неприятным последствиям для нескольких человек.

Доктор Джим Эверетт, руководивший исследованием, подчеркнул,

...Доверие к моральному ИИ — это не только вопрос точности, но и соответствия человеческим ценностям и ожиданиям. В будущем такие системы могут стать важными помощниками в принятии решений в здравоохранении, праве и других областях, и важно понимать, как преодолеть разрыв между возможностями ИИ и доверием людей...

Подписывайтесь на канал «НаучПопОбр», чтобы узнать больше о науке и её увлекательных аспектах!