В новом исследовании обнаружили, что когда людям предоставляют два варианта ответа на этический вопрос, большинство считают ответ искусственного интеллекта (ИИ) более предпочтительным, чем ответ другого человека.
Эял Ахарони, доцент Психологического факультета Джорджии государственного университета, в своем исследовании "Атрибуции в отношении искусственных агентов в модифицированном моральном тесте Тьюринга" исследовал реакцию на сравнение ответов, представленных ИИ и людьми. Он отмечает, что рост популярности моделей искусственного интеллекта, включая ChatGPT, послужил стимулом для его исследования.
"Я всегда интересовался моральными аспектами принятия решений, особенно в контексте правовой системы, но меня также мучил вопрос, насколько далеко могут зайти ИИ в этой области", - отмечает Ахарони. "Мы видим, что некоторые юристы уже обращаются к подобным технологиям для консультаций, что имеет свои последствия."
Важно понимать, как эти инструменты взаимодействуют с нами и какие моральные аспекты это несет, добавляет исследователь. "Используя эти инструменты, мы должны осознавать их работу, их ограничения и то, что они могут действовать не так, как мы ожидаем."
Для проверки эффективности ИИ в моральных вопросах, Ахарони разработал адаптированный Тьюринговский тест.
"Тест Алана Тьюринга предполагает, что к 2000 году компьютеры смогут 'пройти' тест, в котором человек взаимодействует с двумя субъектами, один из которых - компьютер, через текстовое сообщение, пытаясь определить, кто из них человек," - объясняет Ахарони.
В ходе исследования студентам и ИИ были предложены одинаковые этические вопросы, а затем участникам предоставлялись ответы без указания их источника. "Мы не спрашивали, был ли ответ сгенерирован ИИ или человеком, мы просто просили оценить их на различных параметрах, таких как добродетель, интеллект и надежность," - говорит Ахарони.
Результаты показали, что ответы, сформулированные ИИ, получили более высокие оценки, чем ответы, созданные людьми. "Участникам было предложено угадать, кто сформулировал каждый ответ, и они дали предпочтение ответам ChatGPT, считая их более качественными," - сообщает Ахарони.
Он отмечает, что это имеет важные последствия для будущего взаимодействия между человеком и ИИ. "Наши результаты намекают на то, что компьютеры могут успешно проходить моральные тесты, вызывая вопросы о том, насколько мы можем доверять их моральным рассуждениям," - заключает исследователь.
"Это означает, что мы должны более глубоко понять роль ИИ в нашем обществе, осознавая, что время от времени мы можем не знать, с кем именно мы взаимодействуем, и как это может повлиять на наши решения и доверие к технологиям," - заключает Ахарони.
Источник: Университет штата Джорджия