Психологи, тонкие сущности человеческих индивидов, отмечают, что отсутствие у ИИ человеческого опыта и настоящего понимания ограничивает его способность принимать важные моральные решения. Искусственные советники по морали (ИСМ) — это системы на базе ИИ, которые разрабатываются, чтобы помочь людям делать этические выборы, опираясь на известные моральные теории. Хотя такие системы уже разрабатываются, они пока не могут давать последовательные и объективные советы человеку, что делает их применение в реальных ситуациях ограниченным. Учёные-практики принимавшие участие в исследовании, проведённом Школой психологии Кентского университета изучили, как люди воспринимают искусственных советников по морали. Исследование обнаружило, что люди склонны больше доверять рекомендациям, которые дают другие люди, даже если рекомендации ИИ и людей одинаковы. Особенно это касается ситуаций, когда речь идёт об утилитарных принципах (максимизации пользы для большинства), в то время как неутилитарные (соблю
Искусственные советники по морали: почему мы не готовы доверять ИИ?
24 февраля 202524 фев 2025
3
1 мин