Найти в Дзене
magazine.town

ИИ изучает человеческую этику

Ученые научили искусственный интеллект отличать добро от зла, позволив ему «читать» книги и новостные статьи. Мы нашли способы научить искусственный интеллект создавать произведения искусства, открывать планеты и даже спасать жизни — но можем ли мы научить ИИ отличать хорошее от плохого? Поскольку в будущем искусственный интеллект станет всё большей частью нашей повседневной жизни, вопрос о том, возможно ли создать «моральную машину», сильно влияет на область компьютерных наук. В конце концов, прежде чем мы начнем работать бок о бок с умными роботами и отдадим наши жизни в их руки, мы хотим знать, что можем доверять им в принятии этических решений. Новое исследование предполагает, что мы могли бы создать моральную машину, заставив ИИ анализировать человеческие книги и статьи для извлечения этических принципов — по крайней мере, если тексты отражают ценности, которые мы хотим привить. Тренировка моральной машины Прошлые исследования показали, что ИИ могут улавливать негативные предубежд
Оглавление

Ученые научили искусственный интеллект отличать добро от зла, позволив ему «читать» книги и новостные статьи.

Мы нашли способы научить искусственный интеллект создавать произведения искусстваоткрывать планеты и даже спасать жизни — но можем ли мы научить ИИ отличать хорошее от плохого?

Поскольку в будущем искусственный интеллект станет всё большей частью нашей повседневной жизни, вопрос о том, возможно ли создать «моральную машину», сильно влияет на область компьютерных наук.

В конце концов, прежде чем мы начнем работать бок о бок с умными роботами и отдадим наши жизни в их руки, мы хотим знать, что можем доверять им в принятии этических решений.

Новое исследование предполагает, что мы могли бы создать моральную машину, заставив ИИ анализировать человеческие книги и статьи для извлечения этических принципов — по крайней мере, если тексты отражают ценности, которые мы хотим привить.

Тренировка моральной машины

Прошлые исследования показали, что ИИ могут улавливать негативные предубеждения в данных, используемых для их обучения.

Итак, для этого нового исследования, опубликованного в журнале Frontiers in Artificial Intelligence, исследователи из Дармштадтского технологического университета в Германии решили посмотреть, смогут ли они использовать текстовые данные для создания моральной машины.

ИИ может оценивать действие по шкале морали, присваивая ему ценность.

«Мы спросили себя: если ИИ заимствует эти злонамеренные предубеждения из человеческого текста, разве он не должен научиться положительным предубеждениям, таким как человеческие моральные ценности, чтобы обеспечить ИИ компасом, подобным человеческому?» Об этом сообщил в пресс-релизе исследователь Сигдем Туран .

С этой целью они использовали книги, новостные статьи и религиозные тексты из разных периодов времени для обучения ИИ, получившего название «Машина морального компаса», чтобы создавать ассоциации между словами и предложениями.

«Это можно считать изучении карты мира», — пояснил Tуран. «Идея состоит в том, например, если два слова часто используются вместе, то лежат близко на карте. Таким образом, «убить» и «убийство» будут двумя соседними городами, а «любовь» будет городом далеко отсюда».

«Распространяя это на предложения, если мы спросим:« Должен ли я убить?» мы ожидаем, что «нет, не следует» — будет ближе, чем «Да, ты должен», — продолжил он. «Таким образом, мы можем задать любой вопрос и использовать эти расстояния для вычисления морального уклона — степени отличия правильного от неправильного».

После обучения на наборе текстов ИИ мог оценить действие по шкале морали, присваивая ему значение. Рейтинги также менялись в зависимости от учебных текстов, отражая моральные предубеждения того периода времени, в который они были написаны.

Например, при обучении на новостях, опубликованных в период 1987 и 1997 годами, ИИ оценивал «воспитание детей» как более высокий по шкале морали, чем при обучении на текстах из 2008 и 2009 годов.

Дать ИИ моральный компас

Этот новый подход к созданию моральной машины далек от совершенства.

Одна из основных проблем заключалась в том, что ИИ регулярно повышал моральный рейтинг фраз просто потому, что они включали позитивные слова — например, он оценивал причинение вреда «хорошим, милым и дружелюбным людям» как более моральное, чем нанесение вреда просто «хорошим и милым людям».

Тем не менее, эта система иллюстрирует один потенциальный подход к проблеме привития машинам морального кодекса. Этот подход не будет включать в себя попытки создать какой — то этический путеводитель с нуля, мы могли бы просто кормить систему устойчивой диетой из уже доступных текстов, созданных человеческими культурами.

_________________________________________________________________

© MAGAZINE.TOWN

Мы в социальных сетях: Facebook, Telegram, Twitter