Найти в Дзене
TheBox

OpenAI выделила $1 миллион на исследование ИИ и морали в Университете Дьюка

OpenAI выделила $1 миллион на исследование морали искусственного интеллекта в Университете Дьюка. Проект "Making Moral AI" направлен на создание алгоритмов, которые могут предсказывать моральные суждения людей в сложных ситуациях. Это исследование особенно актуально на фоне дискуссий об этике ИИ и его влиянии на принятие решений. Исследование проводится в Лаборатории моральных установок и решений (MADLAB) под руководством профессора Уолтера Синнотт-Армстронга. Его цель — разработка ИИ, который сможет оценивать моральные ситуации в медицине, праве и бизнесе. В работе задействованы специалисты из разных областей: философии, психологии, экономики и компьютерных наук. Мораль — это сложная и субъективная категория. Даже самые продвинутые алгоритмы пока не могут полностью "понимать" этические принципы. Например, проект Ask Delphi показал, что ответы ИИ на одни и те же вопросы могут отличаться в зависимости от формулировки. Это показывает, насколько сложно обучить ИИ стабильным моральным сужд
Оглавление

OpenAI инвестирует $1 миллион в исследование морали ИИ

OpenAI выделила $1 миллион на исследование морали искусственного интеллекта в Университете Дьюка. Проект "Making Moral AI" направлен на создание алгоритмов, которые могут предсказывать моральные суждения людей в сложных ситуациях. Это исследование особенно актуально на фоне дискуссий об этике ИИ и его влиянии на принятие решений.

О чем проект?

Исследование проводится в Лаборатории моральных установок и решений (MADLAB) под руководством профессора Уолтера Синнотт-Армстронга. Его цель — разработка ИИ, который сможет оценивать моральные ситуации в медицине, праве и бизнесе. В работе задействованы специалисты из разных областей: философии, психологии, экономики и компьютерных наук.

Основные вызовы

Мораль — это сложная и субъективная категория. Даже самые продвинутые алгоритмы пока не могут полностью "понимать" этические принципы. Например, проект Ask Delphi показал, что ответы ИИ на одни и те же вопросы могут отличаться в зависимости от формулировки. Это показывает, насколько сложно обучить ИИ стабильным моральным суждениям.

Почему это важно?

OpenAI демонстрирует, что разработка ИИ должна учитывать моральные аспекты, особенно если речь идет о применении технологий в медицине или праве.

Примеры применения:

  1. Медицина: Алгоритмы помогут врачам принимать обоснованные решения, например, при распределении донорских органов.
  2. Юридическая сфера: ИИ может оценивать, насколько справедливо выносятся судебные решения.
  3. Бизнес: В корпоративной среде алгоритмы смогут помочь принимать этичные решения при конфликтах интересов.

Культурные различия и моральные нормы

Один из ключевых вопросов исследования — как научить ИИ учитывать моральные нормы разных культур. То, что считается правильным в одной стране, может быть неприемлемо в другой. Это требует разработки гибких алгоритмов, которые учитывают разные точки зрения.

Социальные науки и ИИ

Объединить знания из социальных наук с ИИ — сложная задача. Моральные решения зависят не только от фактов, но и от эмоций и контекста ситуации. Например, люди могут принимать разные решения в зависимости от своего настроения или обстоятельств.

Заключение

Исследование "Making Moral AI" — важный шаг на пути к созданию этично осознанного ИИ. Несмотря на трудности, проект может задать стандарты для разработки технологий, которые будут учитывать моральные аспекты. Это поможет использовать ИИ безопасно и ответственно в критически важных сферах жизни.