Найти в Дзене
Tower

Совесть по требованию: почему мы никогда не доверим роботам решать, что хорошо, а что плохо?

Искусственный интеллект проникает во все сферы нашей жизни, но готов ли он взять на себя роль морального советника? Новое исследование ученых из Университета Кента (Англия) показало, что люди с большим подозрением относятся к искусственным консультантам, даже если их советы полностью совпадают с рекомендациями людей. В чем причина недоверия? Разрабатываются специальные ИИ-системы (AMA), которые должны помогать нам принимать моральные решения. Они анализируют этические принципы и предлагают беспристрастные рекомендации. Но, как оказалось, люди не готовы доверять ИИ в решении моральных дилемм, особенно если его советы основаны на утилитаризме (максимизации пользы для большинства). Что показал эксперимент? В будущем такие ИИ-системы могут начать использовать в медицине, юриспруденции, управлении и даже для оказания психологической помощи. Но доверие к моральному ИИ — это не только вопрос точности, но и соответствия человеческим ценностям. Исследователи считают, что разработчики ИИ должны

Искусственный интеллект проникает во все сферы нашей жизни, но готов ли он взять на себя роль морального советника? Новое исследование ученых из Университета Кента (Англия) показало, что люди с большим подозрением относятся к искусственным консультантам, даже если их советы полностью совпадают с рекомендациями людей.

В чем причина недоверия?

Разрабатываются специальные ИИ-системы (AMA), которые должны помогать нам принимать моральные решения. Они анализируют этические принципы и предлагают беспристрастные рекомендации. Но, как оказалось, люди не готовы доверять ИИ в решении моральных дилемм, особенно если его советы основаны на утилитаризме (максимизации пользы для большинства).

Что показал эксперимент?

  • Люди чаще отвергают моральные советы ИИ, чем советы людей, даже если они абсолютно идентичны.
  • Советы, основанные на чётких моральных правилах (например, «нельзя причинять вред»), вызывают больше доверия, чем предложения пожертвовать интересами одних ради блага большинства.
  • Даже если человек согласен с советом ИИ, он всё равно ожидает разногласий в будущем, что говорит о глубоком скептицизме.

В будущем такие ИИ-системы могут начать использовать в медицине, юриспруденции, управлении и даже для оказания психологической помощи. Но доверие к моральному ИИ — это не только вопрос точности, но и соответствия человеческим ценностям.

Исследователи считают, что разработчики ИИ должны учитывать, как люди воспринимают моральные решения, иначе даже самые рациональные алгоритмы останутся невостребованными. Получается, что совесть — это пока что исключительно человеческая прерогатива!