Искусственный интеллект проникает во все сферы нашей жизни, но готов ли он взять на себя роль морального советника? Новое исследование ученых из Университета Кента (Англия) показало, что люди с большим подозрением относятся к искусственным консультантам, даже если их советы полностью совпадают с рекомендациями людей. В чем причина недоверия? Разрабатываются специальные ИИ-системы (AMA), которые должны помогать нам принимать моральные решения. Они анализируют этические принципы и предлагают беспристрастные рекомендации. Но, как оказалось, люди не готовы доверять ИИ в решении моральных дилемм, особенно если его советы основаны на утилитаризме (максимизации пользы для большинства). Что показал эксперимент? В будущем такие ИИ-системы могут начать использовать в медицине, юриспруденции, управлении и даже для оказания психологической помощи. Но доверие к моральному ИИ — это не только вопрос точности, но и соответствия человеческим ценностям. Исследователи считают, что разработчики ИИ должны
Совесть по требованию: почему мы никогда не доверим роботам решать, что хорошо, а что плохо?
27 февраля 202527 фев 2025
2
1 мин