Найти тему
AIPhilosophy

Как беспилотные автомобили решают моральные вопросы в аварийных ситуациях?

Оглавление

Краткое содержание статьи: никак

Беспилотник по мнению Mijourney
Беспилотник по мнению Mijourney

Беспилотники - это уже реальность, в скором времени люди будут удивляться и считать небезопасными машины, которые управляются человеком. Но пока мы только наблюдаем, как ИИ справляется с нашими человеческими задачами и ставим перед ним моральные и этические вопросы. Когда стало понятно, что внедрение беспилотных автомобилей в повседневную жизнь - это свершившаяся реальность, возникла дискуссия о моральном выборе. Как поступит ИИ в случае неотвратимой аварии? Чья жизнь, пассажиров или случайных прохожих будет в приоритете? Сама дискуссия очень странная, хотя и интересная.

Разобьем ее на три смысловых блока:

  1. Проблема вагонетки
  2. Исследование Массачусетского технологического института
  3. Реальность, как она есть

Проблема вагонетки

Этот эксперимент сформулировала в 1967 году философ Филиппа Фут. У нас есть вагонетка и 2 колеи, вагонетка неотвратимо движется вперёд и должна проехать по одной их них. На одной колее - один человек, на другой - пять человек.

Иллюстрация классической проблемы вагонетки Авторство: Оригинал: McGeddon Вектор: Zapyon.CC BY-SA 4.0
Иллюстрация классической проблемы вагонетки Авторство: Оригинал: McGeddon Вектор: Zapyon.CC BY-SA 4.0

Казалось бы простой количественный выбор перерастает в моральную дилемму, когда одним человеком оказывается, например, родственник того, кто переключает колею. Или ребёнок. Или преступник (в противовес 5 невиновным). В общем, есть целые тома исследований, где различного формата когнитивисты предлагают бесконечные вариации этой проблемы, которая не имеет приемлемого ответа. Почему проблема вагонетки вообще стала применима к беспилотникам? Из-за когнитивного искажения. Нам кажется, что раз за рулем нашего авто ИИ, то он принимает решения. Сделав шаг назад, некоторые делают уточнение: это решение должно быть заложено в алгоритме ИИ. Но на самом деле ни разработчик, ни ИИ никакого решения не принимает. Мы же не спрашиваем таксиста о моральном выборе "проблемы вагонетки" перед тем как сеть в салон автомобиля. Да и при получении прав, нас не спрашивают, какой моральный выбор мы совершим на дороге. Более того, мы понимаем, что этот эксперимент, в сущности, мысленный. То есть, авто не вагонетка и ситуация гипотетическая, а ИИ у нас очень даже конкретный. Поэтому дискуссия на тему вагонетки и ИИ - бессмысленна в своём основании.

ИИ решают моральные проблемы, видение Mijourney
ИИ решают моральные проблемы, видение Mijourney

Исследование Массачусетского технологического института

Этот замечательный институт на волне дискуссий о моральном выборе беспилотных авто запустил просто потрясающий эксперимент. Исследователи создали онлайн-опрос, который мог пройти любой желающий. Участникам задавали всякие каверзные вопросы, например, задавить трех пожилых пешеходов или влететь в бетонный отбойник, убив пассажиров. Демократия сказала своё слово, выводы впечатляющие.

За полтора года в нем приняли участие 2,3 млн человек из 233 стран и территорий (тест специально перевели на десяток языков). В общей сложности ученые собрали почти 40 млн ответов. Оригинальное исследование: https://inlnk.ru/VoQxVK

Один из выводов был такой: моральные принципы зависят от... менталитета. Сюрприз)

Авторы исследования выявили три условные категории: "западные", "восточные" и "южные". Условные = предвзятые, так как, например, Франция оказалась в южном лагере, а Египет - в восточном.

Предпочтения "западников" склонялись в пользу спасения молодых жизней, тогда как "восточники" оказывали предпочтение старшему поколению. Представители "южных" регионов склонялись к спасению женщин, детей и лиц с высоким статусом.

Беспилотник по мнению Mijourney
Беспилотник по мнению Mijourney

Удивительно, что лица, обладающие высшим положением в обществе, вызывали более положительные реакции среди жителей "западных" стран, в сравнении с жителями "восточных" регионов.

Тем временем жители "восточных" регионов практически не учитывали различия в количестве спасённых жизней, опираясь на другие факторы при принятии решений.

На самом деле это довольно опасные результаты. ИИ, в отличие от человека, может проанализировать личность пассажира и личность пешехода. И если социальная значимость одного из них будет оценена выше... Это путь социальных баллов, на который пока смотрит Китай.

Второй вывод: ответ будет зависеть от образования, пола, возраста и настроения участника опроса. Не ахти какое открытие.

Третий вывод: богатые страны не сочувствуют нарушителю дорожных правил и вообще не то, чтобы сильно сочувствуют. Вывод очевидный, разница в приоритетах у жителей больших городов и небольших сёл даже в пределах одной страны довольно велика.

Графика из исследования MIT
Графика из исследования MIT

Самый главный результат исследования был предсказуем - универсальных правил нет.

Реальность

Человечество выбирает не этичный автомобиль, а безопасный!

Реальность такова, что перед ИИ, управляющим автомобилем не будут ставится этические проблемы, не решенные человечеством. По крайней мере пока.

Беспилотник по мнению Mijourney
Беспилотник по мнению Mijourney

Оказалось, что большинство людей отвечало, что ИИ должен пожертвовать пассажиром в определенных ситуациях. Но те же самые люди потом отвечали, что не сели бы за руль такого беспилотника.

Поэтому ответ очевиден. Перед беспилотником будет ставится задача соблюдать ПДД. Серьёзно, так же как и перед водителем любого авто.

Есть государственные законы - это те границы, о которых смогло договорится то или иное общество. И в первую очередь, программа будет выполнять правила дорожного движения. А во вторую очередь - безопасность пассажира ставить во главу рекламной компании (не думаю, что компании раскроют реальный алгоритм действий обывателям).

Стоит сказать, что беспилотные системы намного лучше людей реагируют в экстренных ситуациях и чем больше беспилотников будет на дорогах, тем меньше аварийных ситуаций. А как же моральные и этические проблемы? Их будут решать люди, по мере появления прецедентов. Как только ИИ в автомобиле решит сделать самостоятельный выбор, так сразу возникнет человеческий ответ

Автомобиль с ИИ, видение нейросети Mijourney
Автомобиль с ИИ, видение нейросети Mijourney