OpenAI выделила $1 миллион на исследование морали искусственного интеллекта в Университете Дьюка. Проект "Making Moral AI" направлен на создание алгоритмов, которые могут предсказывать моральные суждения людей в сложных ситуациях. Это исследование особенно актуально на фоне дискуссий об этике ИИ и его влиянии на принятие решений. Исследование проводится в Лаборатории моральных установок и решений (MADLAB) под руководством профессора Уолтера Синнотт-Армстронга. Его цель — разработка ИИ, который сможет оценивать моральные ситуации в медицине, праве и бизнесе. В работе задействованы специалисты из разных областей: философии, психологии, экономики и компьютерных наук. Мораль — это сложная и субъективная категория. Даже самые продвинутые алгоритмы пока не могут полностью "понимать" этические принципы. Например, проект Ask Delphi показал, что ответы ИИ на одни и те же вопросы могут отличаться в зависимости от формулировки. Это показывает, насколько сложно обучить ИИ стабильным моральным сужд
OpenAI выделила $1 миллион на исследование ИИ и морали в Университете Дьюка
5 января 20255 янв 2025
2 мин