Подписывайтесь на канал «Другая фаза», чтобы быть в курсе самых горячих технологических тем.
Редакция канала «Другая фаза» всегда с вниманием следит за интересом своих читателей. Не остался без того, чтобы быть отмеченным, и интерес нашей аудитории к мысленному эксперименту из области этики под названием «Проблема вагонетки». Действительно, этот вопрос довольно сильно волнует любого человека, который хоть как-то следит за развивающимися технологиями — с появлением и массовым распространением беспилотных автомобилей становится очень интересно и важно для здоровья и жизни понимать, как же производители беспилотных автомобилей решают проблему вагонетки.
Сегодня редакция канала «Другая фаза» при поддержки экспертов Агентства Искусственного Интеллекта (АИИ) подготовила для вас эксклюзивный материал о том, как эту проблему решают производители беспилотных автомобилей в России.
Пара слов о предыстории
Группа учёных из MIT проводили гигантское исследование, которое они назвали «The Moral Machine» (моральная машина). В этом исследовании каждому желающему после заполнения стандартной анкеты предлагалось выступить в роли автопилота автомобиля и решить, как действовать в той или иной ситуации. Ситуации были разнообразными, но все на одну тему — кого убивать в случае, если есть только две альтернативы. И в качестве вариантов предлагалось большое количество возможностей: женщины и мужчины, молодые и старые, толстяки и спортивные, бандиты и бизнесмены и ещё куча разных категорий.
В итоге исследователи получили обескураживающие результаты (впрочем, их можно было прогнозировать):
Выбор зависит от культуры, к которой относится человек.
Например, в азиатских и африканских странах выбор между молодыми и старыми людьми отдавался в пользу старых, а в западной культуре наоборот. И таких различий, вплоть до различий в моральных установках на уровне регионов одной страны, было очень много. Учёные ещё раз подтвердили то, что было известно довольно давно — мораль относительна.
Решение
Мы провели небольшое исследование и обнаружили, что сегодня в России есть несколько коллективов, которые занимаются разработкой беспилотных автомобилей. Перечислим их:
- Cognitive Technologies — разработка «мозгов» для беспилотного автомобиля на основе интеграции трёх сенсорных модальностей от видеокамеры, лидара и радара.
- Яндекс — разработка полной оснастки для беспилотного легкового автомобиля любой модели на основе компьютерного зрения.
- НАМИ — участие в коллаборациях по разработке беспилотных автомобилей с разными коллективами и разработка аппаратно-технической составляющей автопилотов.
- КАМАЗ — разработка беспилотного автомобиля на базе своего шасси и с использованием компьютерного зрения.
- ГАЗ — разработка беспилотного автомобиля на базе своего шасси и с использованием компьютерного зрения.
- BMG — разработка беспилотной платформы «Матрёшка» для челночной перевозки по заданным маршрутам.
- МАДИ — коллаборации студентов, аспирантов и молодых учёных, решающих различные частные задачи, возникающие в области беспилотного движения разного уровня.
Как видно, в России достаточно коллективов, которые занимаются этой важной проблемой, причём делают они это на мировом уровне. Эксперты АИИ пообщались с представителями некоторых коллективов, чтобы узнать подробности проектов. Одним из вопросов, который обсуждался, было решение поставленной моральной проблемы. Так вот результат немного обескуражил — никакой из коллективов не занимается этой проблемой вообще. Предполагаем, что и во всём мире в других коллективах дела обстоят примерно так же.
Резюме
Проблема вагонетки — в целом надуманная штука. В реальности именно для автомобилей она возникает крайне редко, и даже человек со своим естественным интеллектом решить её вряд ли сможет окончательно и однозначно для любой ситуации. В каждой конкретной ситуации каждый конкретный водитель принимает интуитивное решение, основанное на бессознательных рефлексах и текущем эмоциональном фоне. Говорить о каком-то сознательном рациональном выборе не приходится.
Что же касается разработки беспилотных автомобилей, то у многих специалистов в области Искусственного Интеллекта (в том числе и у экспертов АИИ) отношение к этому вопросу простое — интеллектуальные агенты живут в совершенно ином масштабе времени, и для них субъективное время течёт намного быстрее, чем для нас, а потому мы должны сделать всё необходимое, чтобы для интеллектуальных агентов вообще не вставало проблемы морального выбора, так как они могут всё просчитать, предугадать и предотвратить.