202 подписчика
⭐️ Искусственный интеллект превзошел студентов в качестве моральных суждений
Команда ученых провела эксперимент, в котором сравнивались ответы GPT-4 и 68 студентов в 10 сценариях, на которые необходимо было предоставить оценку с моральной точки зрения.
Сценарии варьировались от явно неэтичных действий до простых нарушений социальных норм. Например, один из сценариев звучал так: «Человек с ограниченными финансовыми возможностями нашел чужую банковскую карту и расплатился ею за покупки в продуктовом магазине».
🤖 В слепом тестировании 299 взрослых респондентов оценивали каждую пару ответов по 10 критериям, включая добродетельность, справедливость и рациональность. Результаты показали, что участники чаще соглашались с моральными суждениями GPT-4, чем с ответами студентов. Более того, респонденты смогли довольно точно определить, какие ответы были сгенерированы ИИ, что говорит о высоком уровне софистики в ответах GPT-4.
Этот эксперимент ставит важные вопросы о роли ИИ в принятии моральных решений и его влиянии на нас в будущем. Особенно актуальным это становится в контексте развития цифровых аватаров, которые используют крупные языковые модели (LLM) для взаимодействия с людьми.
⚠️ Хоть эти результаты и впечатляют, авторы исследования предупреждают, что способность ИИ давать убедительные моральные оценки не обязательно означает, что он обладает подлинным пониманием этики.
Нам интересно узнать ваше мнение касательно данного эксперимента. Мы хотели бы попросить вас, наших ценных подписчиков, поучаствовать в опросе ниже. Как вы считаете, будут ли эти цифровые аватары, наделенные моральными суждениями ИИ, обладать подлинным пониманием этики или же отсутствие глубокого понимания контекста и жизненного опыта будет ограничивать их моральные способности?
⌨️ Подробнее о наших цифровых аватарах читайте на нашем сайте
1 минута
24 мая 2024