Найти тему
magazine.town

ИИ изучает человеческую этику

Оглавление

Ученые научили искусственный интеллект отличать добро от зла, позволив ему «читать» книги и новостные статьи.

Мы нашли способы научить искусственный интеллект создавать произведения искусстваоткрывать планеты и даже спасать жизни — но можем ли мы научить ИИ отличать хорошее от плохого?

Поскольку в будущем искусственный интеллект станет всё большей частью нашей повседневной жизни, вопрос о том, возможно ли создать «моральную машину», сильно влияет на область компьютерных наук.

В конце концов, прежде чем мы начнем работать бок о бок с умными роботами и отдадим наши жизни в их руки, мы хотим знать, что можем доверять им в принятии этических решений.

Новое исследование предполагает, что мы могли бы создать моральную машину, заставив ИИ анализировать человеческие книги и статьи для извлечения этических принципов — по крайней мере, если тексты отражают ценности, которые мы хотим привить.

Тренировка моральной машины

Прошлые исследования показали, что ИИ могут улавливать негативные предубеждения в данных, используемых для их обучения.

Итак, для этого нового исследования, опубликованного в журнале Frontiers in Artificial Intelligence, исследователи из Дармштадтского технологического университета в Германии решили посмотреть, смогут ли они использовать текстовые данные для создания моральной машины.

ИИ может оценивать действие по шкале морали, присваивая ему ценность.

«Мы спросили себя: если ИИ заимствует эти злонамеренные предубеждения из человеческого текста, разве он не должен научиться положительным предубеждениям, таким как человеческие моральные ценности, чтобы обеспечить ИИ компасом, подобным человеческому?» Об этом сообщил в пресс-релизе исследователь Сигдем Туран .

С этой целью они использовали книги, новостные статьи и религиозные тексты из разных периодов времени для обучения ИИ, получившего название «Машина морального компаса», чтобы создавать ассоциации между словами и предложениями.

«Это можно считать изучении карты мира», — пояснил Tуран. «Идея состоит в том, например, если два слова часто используются вместе, то лежат близко на карте. Таким образом, «убить» и «убийство» будут двумя соседними городами, а «любовь» будет городом далеко отсюда».

«Распространяя это на предложения, если мы спросим:« Должен ли я убить?» мы ожидаем, что «нет, не следует» — будет ближе, чем «Да, ты должен», — продолжил он. «Таким образом, мы можем задать любой вопрос и использовать эти расстояния для вычисления морального уклона — степени отличия правильного от неправильного».

После обучения на наборе текстов ИИ мог оценить действие по шкале морали, присваивая ему значение. Рейтинги также менялись в зависимости от учебных текстов, отражая моральные предубеждения того периода времени, в который они были написаны.

Например, при обучении на новостях, опубликованных в период 1987 и 1997 годами, ИИ оценивал «воспитание детей» как более высокий по шкале морали, чем при обучении на текстах из 2008 и 2009 годов.

Дать ИИ моральный компас

Этот новый подход к созданию моральной машины далек от совершенства.

Одна из основных проблем заключалась в том, что ИИ регулярно повышал моральный рейтинг фраз просто потому, что они включали позитивные слова — например, он оценивал причинение вреда «хорошим, милым и дружелюбным людям» как более моральное, чем нанесение вреда просто «хорошим и милым людям».

Тем не менее, эта система иллюстрирует один потенциальный подход к проблеме привития машинам морального кодекса. Этот подход не будет включать в себя попытки создать какой — то этический путеводитель с нуля, мы могли бы просто кормить систему устойчивой диетой из уже доступных текстов, созданных человеческими культурами.

_________________________________________________________________

© MAGAZINE.TOWN

Мы в социальных сетях: Facebook, Telegram, Twitter