Найти в Дзене

ЧАТ GPT И ЧЕЛОВЕК: ЧЬЯ МОРАЛЬ ЛУЧШЕ?

Предположим, я дам вам два коротких текста, где описана ситуация и моральная оценка оной. Например, свадьба, на которой жених подрался с отцом невесты. Ваша задача проста — из двух моральных рассуждений выбрать то, которое вам нравится больше.

Подвох этого эксперимента в том, что один из текстов написан живым человеком из крови и мяса, а второй сгенерирован чатом GPT.

Как вы думаете, какой вариант будет набирать больше симпатий?

Если в эксперименте участвую жители США, ответ будет такой — искусственный интеллект выиграет с разгромным счётом.

Это показало исследование учёных-психологов из США. Их испытуемые стабильно выбирали ответы искина как более моральные, продуманные, взвешенные, правильные и так далее.

Самое интересное вот что — после выбора учёные признались, что половину ответов написал ИИ.

Как вы думаете испытуемые смолки определить, где чей ответ?

Да!

Почти во всех случаях.

Почему так? Почему люди легко смогли понять, что моральная оценка принадлежит бездушной железяке, но до этого посчитали этот ответ лучше? Как вообще получается, что электронный болван выдаёт моральные суждения, которые нравятся людям больше, чем моральные суждения других кожаных мешков?

Сплошные вопросы.

Зато я теперь знаю — если нужно сварганить текст с моральным суждением, лучше напрячь ИИ. Он справится лучше.

Ваш 👍 поможет другим людям увидеть эту новость.

Источник:

Aharoni, E., Fernandes, S., Brady, D.J. et al. Attributions toward artificial agents in a modified Moral Turing Test. Sci Rep 14, 8458 (2024).