Этот проект, получивший название "Исследование морали ИИ", проводится специалистами из Университета Дьюка. Основная цель - создать алгоритмы, способные анализировать и предсказывать человеческие моральные суждения в различных ситуациях, включая медицину, право и бизнес. Профессор Уолтер Синнотт-Армстронг, который руководит исследованием, ранее изучал возможности ИИ в качестве помощника в принятии этически обоснованных решений. Вместе с коллегой Яной Борг он разработал алгоритм, который помогает решать вопросы донорства органов. Также они исследовали, как люди относятся к идее, что ИИ может принимать моральные решения за них. Однако задача создания морального ИИ не из простых. Современные ИИ-системы строятся на статистических моделях, которые анализируют данные, но не способны понять этические принципы или эмоции, стоящие за моральными решениями. К тому же, данные, используемые для обучения ИИ, часто отражают ценности западных стран, что может привести к предвзятости в ответах ИИ. Сложн
OpenAI выделила $1 миллион на разработку "морального" искусственного интеллекта
27 ноября 202427 ноя 2024
6
1 мин