«Проблему вагонетки» поставили перед миллионами людей. Глобальный опрос показал, насколько в разных культурах разная этика. Что с этим делать в свете развития беспилотных технологий, пишет MIT Technology Review со ссылкой на Natural. Исследование кажется тем актуальнее, что, как стало известно на той неделе, «Яндекс» и Hyundai собрались вместе создавать технологию для беспилотников, которую смогут использовать автопроизводители и сервисы такси.
В 2014 году исследователи из MIT Media Lab провели эксперимент под названием «Моральная машина». Используя игровую платформу, люди решали, как беспилотные автомобили должны расставлять приоритеты в различных ситуациях, проще говоря — на кого наехать машине, если на дороге несколько человек. Полученные данные объясняют, как выглядят коллективные этические приоритеты в зависимости от культуры, экономики и географического положения. Журнал Nature опубликовал анализ этих данных.
Исследователи не могли и предположить, что эксперимент окажется настолько вирусным. Через четыре года после запуска платформы миллионы людей из 233 стран и территорий зарегистрировали 40 млн решений, что сделало исследование одним из крупнейших в своем роде.
Моральная машина
Классическая этическая задача выглядит так: вы видите вагонетку, которая несется по рельсам, она может врезаться в группу из пяти человек и убить их. У вас есть доступ к рычагу, который может переключить вагонетку на другую колею, в таком случае погибнет только один человек. Стоит ли тянуть рычаг и закончить одну жизнь, чтобы спасти пять?
Исследование «Моральная машина» тестирует девять ситуаций и ставит девять вопросов. Кого выбрать, если беспилотный автомобиль может сбивать:
- людей или домашних животных,
- пассажиров или пешеходов,
- большее число людей или меньшее,
- женщин или мужчин,
- молодых или старых,
- здоровых или больных,
- тех, чей социальный статус выше, и тех, у кого он ниже,
- законопослушных и нарушителей,
- наконец, должна ли машина свернуть (принять меры) или остаться на курсе (бездействовать)?
В рамках эксперимента сравнения не были даны одно за другим, участникам предлагали различные комбинации: например, должен ли самоуправляемый автомобиль продолжать движение прямо и убить трех пожилых пешеходов или свернуть на ограждение и убить трех молодых пассажиров?
Исследователи обнаружили, что предпочтения испытуемых в разных странах сильно различаются и что они тесно связаны с культурой и экономикой. Например, участники из коллективистских культур, таких как Китай и Япония, с меньшей вероятностью будут щадить молодежь – видимо, из-за большего акцента на уважение пожилых людей.
Точно так же участники из более бедных стран с более слабыми общественными институтами оказались более терпимыми по отношению к неосторожным пешеходам в сравнении с пешеходами, которые переходят дорогу как положено. Участники из стран с высоким уровнем экономического неравенства показывают большую разницу между восприятием людей с высоким и низким социальным статусом.
Еще исследователи обнаружили, что число людей – не везде решающий фактор. Большее число людей вероятнее всего «пощадят» представители индивидуалистических культур, таких как Великобритания и США.
Жители стран, находящихся в непосредственной близости друг от друга, имели схожие точки зрения. Исследователи выделили три группы – Запад, Восток и Юг.
Ученые признают, что результаты исследования могут быть искажены, потому что оно проходило открыто, на сайте, и, следовательно, с большой вероятностью участники были подключены к интернету, имели высокий социальный статус и были технически подкованы. С другой стороны те, кто заинтересован в беспилотных автомобилях, вероятно, будут иметь все те же характеристики.
Почему это важно?
Исследование пригодилось бы странам, которые испытывают беспилотные автомобили, ведь предпочтения людей могут повлиять на устройство таких транспортных средств. Например, автопроизводители могут обнаружить, что китайцы охотнее садятся в машину, которая защищает себя от пешеходов.
С другой стороны, результаты не должны диктовать правила, говорят исследователи, и в некоторых случая общественное мнение нельзя принимать во внимание.
Эдмонд Авад, автор статьи, приводит в качестве примера ситуацию с двумя людьми разного социального статуса: «Похоже, что люди находят нормальным «защищать» тех, чей статус выше. Нужно исследовать, но не нужно слепо использовать результаты исследования». Скорее эти результаты – картинка для бизнеса и властей, чтобы те понимали, что думают в обществе.
Авад надеется, что полученные результаты также помогут технологам задуматься об этике ИИ в целом.
«Мы надеемся, что обсуждение этики пойдет дальше этого исследования, – говорит он. – Мы должны думать об анализе рисков, а не только о том, кого «убить» и почему люди думают так или иначе». Как эти результаты могут привести к более этическому использованию и регулированию ИИ, покажет будущее.
«В последние два-три года все больше людей начали говорить об этике ИИ – говорит Авад. – Все больше людей начинают осознавать, что ИИ может иметь разные этические последствия для разных групп. Тот факт, что мы видим людей, вовлеченных в это исследование, уже выглядит многообещающее».
Подписывайтесь на наш телеграм-канал — там все интересное и актуальное про диджитал без воды