Краткое содержание статьи: никак
Беспилотники - это уже реальность, в скором времени люди будут удивляться и считать небезопасными машины, которые управляются человеком. Но пока мы только наблюдаем, как ИИ справляется с нашими человеческими задачами и ставим перед ним моральные и этические вопросы. Когда стало понятно, что внедрение беспилотных автомобилей в повседневную жизнь - это свершившаяся реальность, возникла дискуссия о моральном выборе. Как поступит ИИ в случае неотвратимой аварии? Чья жизнь, пассажиров или случайных прохожих будет в приоритете? Сама дискуссия очень странная, хотя и интересная.
Разобьем ее на три смысловых блока:
- Проблема вагонетки
- Исследование Массачусетского технологического института
- Реальность, как она есть
Проблема вагонетки
Этот эксперимент сформулировала в 1967 году философ Филиппа Фут. У нас есть вагонетка и 2 колеи, вагонетка неотвратимо движется вперёд и должна проехать по одной их них. На одной колее - один человек, на другой - пять человек.
Казалось бы простой количественный выбор перерастает в моральную дилемму, когда одним человеком оказывается, например, родственник того, кто переключает колею. Или ребёнок. Или преступник (в противовес 5 невиновным). В общем, есть целые тома исследований, где различного формата когнитивисты предлагают бесконечные вариации этой проблемы, которая не имеет приемлемого ответа. Почему проблема вагонетки вообще стала применима к беспилотникам? Из-за когнитивного искажения. Нам кажется, что раз за рулем нашего авто ИИ, то он принимает решения. Сделав шаг назад, некоторые делают уточнение: это решение должно быть заложено в алгоритме ИИ. Но на самом деле ни разработчик, ни ИИ никакого решения не принимает. Мы же не спрашиваем таксиста о моральном выборе "проблемы вагонетки" перед тем как сеть в салон автомобиля. Да и при получении прав, нас не спрашивают, какой моральный выбор мы совершим на дороге. Более того, мы понимаем, что этот эксперимент, в сущности, мысленный. То есть, авто не вагонетка и ситуация гипотетическая, а ИИ у нас очень даже конкретный. Поэтому дискуссия на тему вагонетки и ИИ - бессмысленна в своём основании.
Исследование Массачусетского технологического института
Этот замечательный институт на волне дискуссий о моральном выборе беспилотных авто запустил просто потрясающий эксперимент. Исследователи создали онлайн-опрос, который мог пройти любой желающий. Участникам задавали всякие каверзные вопросы, например, задавить трех пожилых пешеходов или влететь в бетонный отбойник, убив пассажиров. Демократия сказала своё слово, выводы впечатляющие.
За полтора года в нем приняли участие 2,3 млн человек из 233 стран и территорий (тест специально перевели на десяток языков). В общей сложности ученые собрали почти 40 млн ответов. Оригинальное исследование: https://inlnk.ru/VoQxVK
Один из выводов был такой: моральные принципы зависят от... менталитета. Сюрприз)
Авторы исследования выявили три условные категории: "западные", "восточные" и "южные". Условные = предвзятые, так как, например, Франция оказалась в южном лагере, а Египет - в восточном.
Предпочтения "западников" склонялись в пользу спасения молодых жизней, тогда как "восточники" оказывали предпочтение старшему поколению. Представители "южных" регионов склонялись к спасению женщин, детей и лиц с высоким статусом.
Удивительно, что лица, обладающие высшим положением в обществе, вызывали более положительные реакции среди жителей "западных" стран, в сравнении с жителями "восточных" регионов.
Тем временем жители "восточных" регионов практически не учитывали различия в количестве спасённых жизней, опираясь на другие факторы при принятии решений.
На самом деле это довольно опасные результаты. ИИ, в отличие от человека, может проанализировать личность пассажира и личность пешехода. И если социальная значимость одного из них будет оценена выше... Это путь социальных баллов, на который пока смотрит Китай.
Второй вывод: ответ будет зависеть от образования, пола, возраста и настроения участника опроса. Не ахти какое открытие.
Третий вывод: богатые страны не сочувствуют нарушителю дорожных правил и вообще не то, чтобы сильно сочувствуют. Вывод очевидный, разница в приоритетах у жителей больших городов и небольших сёл даже в пределах одной страны довольно велика.
Самый главный результат исследования был предсказуем - универсальных правил нет.
Реальность
Человечество выбирает не этичный автомобиль, а безопасный!
Реальность такова, что перед ИИ, управляющим автомобилем не будут ставится этические проблемы, не решенные человечеством. По крайней мере пока.
Оказалось, что большинство людей отвечало, что ИИ должен пожертвовать пассажиром в определенных ситуациях. Но те же самые люди потом отвечали, что не сели бы за руль такого беспилотника.
Поэтому ответ очевиден. Перед беспилотником будет ставится задача соблюдать ПДД. Серьёзно, так же как и перед водителем любого авто.
Есть государственные законы - это те границы, о которых смогло договорится то или иное общество. И в первую очередь, программа будет выполнять правила дорожного движения. А во вторую очередь - безопасность пассажира ставить во главу рекламной компании (не думаю, что компании раскроют реальный алгоритм действий обывателям).
Стоит сказать, что беспилотные системы намного лучше людей реагируют в экстренных ситуациях и чем больше беспилотников будет на дорогах, тем меньше аварийных ситуаций. А как же моральные и этические проблемы? Их будут решать люди, по мере появления прецедентов. Как только ИИ в автомобиле решит сделать самостоятельный выбор, так сразу возникнет человеческий ответ