Ученые научили искусственный интеллект отличать добро от зла, позволив ему «читать» книги и новостные статьи.
Мы нашли способы научить искусственный интеллект создавать произведения искусства, открывать планеты и даже спасать жизни — но можем ли мы научить ИИ отличать хорошее от плохого?
Поскольку в будущем искусственный интеллект станет всё большей частью нашей повседневной жизни, вопрос о том, возможно ли создать «моральную машину», сильно влияет на область компьютерных наук.
В конце концов, прежде чем мы начнем работать бок о бок с умными роботами и отдадим наши жизни в их руки, мы хотим знать, что можем доверять им в принятии этических решений.
Новое исследование предполагает, что мы могли бы создать моральную машину, заставив ИИ анализировать человеческие книги и статьи для извлечения этических принципов — по крайней мере, если тексты отражают ценности, которые мы хотим привить.
Тренировка моральной машины
Прошлые исследования показали, что ИИ могут улавливать негативные предубеждения в данных, используемых для их обучения.
Итак, для этого нового исследования, опубликованного в журнале Frontiers in Artificial Intelligence, исследователи из Дармштадтского технологического университета в Германии решили посмотреть, смогут ли они использовать текстовые данные для создания моральной машины.
ИИ может оценивать действие по шкале морали, присваивая ему ценность.
«Мы спросили себя: если ИИ заимствует эти злонамеренные предубеждения из человеческого текста, разве он не должен научиться положительным предубеждениям, таким как человеческие моральные ценности, чтобы обеспечить ИИ компасом, подобным человеческому?» Об этом сообщил в пресс-релизе исследователь Сигдем Туран .
С этой целью они использовали книги, новостные статьи и религиозные тексты из разных периодов времени для обучения ИИ, получившего название «Машина морального компаса», чтобы создавать ассоциации между словами и предложениями.
«Это можно считать изучении карты мира», — пояснил Tуран. «Идея состоит в том, например, если два слова часто используются вместе, то лежат близко на карте. Таким образом, «убить» и «убийство» будут двумя соседними городами, а «любовь» будет городом далеко отсюда».
«Распространяя это на предложения, если мы спросим:« Должен ли я убить?» мы ожидаем, что «нет, не следует» — будет ближе, чем «Да, ты должен», — продолжил он. «Таким образом, мы можем задать любой вопрос и использовать эти расстояния для вычисления морального уклона — степени отличия правильного от неправильного».
После обучения на наборе текстов ИИ мог оценить действие по шкале морали, присваивая ему значение. Рейтинги также менялись в зависимости от учебных текстов, отражая моральные предубеждения того периода времени, в который они были написаны.
Например, при обучении на новостях, опубликованных в период 1987 и 1997 годами, ИИ оценивал «воспитание детей» как более высокий по шкале морали, чем при обучении на текстах из 2008 и 2009 годов.
Дать ИИ моральный компас
Этот новый подход к созданию моральной машины далек от совершенства.
Одна из основных проблем заключалась в том, что ИИ регулярно повышал моральный рейтинг фраз просто потому, что они включали позитивные слова — например, он оценивал причинение вреда «хорошим, милым и дружелюбным людям» как более моральное, чем нанесение вреда просто «хорошим и милым людям».
Тем не менее, эта система иллюстрирует один потенциальный подход к проблеме привития машинам морального кодекса. Этот подход не будет включать в себя попытки создать какой — то этический путеводитель с нуля, мы могли бы просто кормить систему устойчивой диетой из уже доступных текстов, созданных человеческими культурами.
_________________________________________________________________
Мы в социальных сетях: Facebook, Telegram, Twitter