Найти тему
21,9 тыс подписчиков

В 2016 году запустили проект «Моральная машина» (Moral Machine), чтобы научить искусственный интеллект, что такое хорошо, а что плохо.


Суть простая: любой пользователь интернета мог зайти на сайт и ответить на сложные моральные вопросы. Например, кого спасать в аварийной ситуации: молодого или пожилого пешехода? Детей или взрослых? Пешеходов или пассажиров?

Проект получил почти 40 миллионов ответов со всех концов света. Так что можно проследить, как мораль меняется в зависимости от географии.

Пользователи из Азии чаще, чем европейцы спасают пожилых людей. Ещё азиаты существенно реже спасали состоятельных пешеходов – реже по сравнению с европейцами и жителями США.

Жители бедных стран реже выбирают вариант «сбить пешехода, который переходит дорогу в неправильном месте».

Полные результаты это глобального опроса

Но вообще, кроме интересных закономерностей в культурах, этот подход показал свою неэффективность. Если загрузить все это в умный автопилот, то он будет такой же моральный, как миллион случайных людей в интернете, желающих поиграться в машину-убийцу. То есть ничего хорошего.

Так что решение надо искать в другой плоскости. Вот здесь список проблем, включая психологические и философские, с которыми столкнулись разработчики ИИ для управления автомобилями (англ)
В 2016 году запустили проект «Моральная машина» (Moral Machine), чтобы научить искусственный интеллект, что такое хорошо, а что плохо.
1 минута
1138 читали