Мы ещё рассмотрим проблему вагонетки в рамках изучения философских мысленных экспериментов, которое я провожу у себя на канале (кстати, подписывайтесь, чтобы не пропустить — каждый вторник у меня новый мысленный эксперимент с объяснениями). Но вот интересная новость — исследователи из MIT опубликовали результаты теста (оригинал здесь), в котором люди со всех концов света выбирали, кого должен спасти, а кого может сбить беспилотный автомобиль.
Исследование длилось несколько лет и охватило не менее 2 миллионов человек из разных культур, разных возрастов и социальных групп. Я, кстати, тоже участвовал. У исследователей появилось огромное количество данных для изучения самых разных вопросов. И они уже начали публиковать отдельные аспекты своих выводов. Но я вот, что скажу — никакого отношения к беспилотным автомобилям это не имеет.
Сама по себе проблема вагонетки достаточно надуманна. Да, она вскрывает многочисленные «тараканы в головах у людей» и в целом позволяет исследовать этические системы в тех или иных сообществах или культурах. Но Искусственный Интеллект и его применения, как мне кажется, здесь вообще ни при чём. Сейчас попробую обосновать свою точку зрения.
Искусственная интеллектуальная система, какой бы они ни была, работает на совершенно иной тактовой частоте, и её субъективное время будет идти намного быстрее, чем наше. Наш человеческий мир для таких ИИ-систем будет как бы погружённым в вязкий клей, всё будет практически стоять. За нашу субъективную секунду ИИ-система «проживёт» тысячи лет (на ладно, сотни). Поэтому у неё просто не будет ситуаций, когда надо будет принимать моральные решения в проблеме вагонетки или многочисленных её вариантах. Она просто не будет доводить до необходимости такого выбора.
И, в общем-то, я сам вижу такое направление для исследований в области Искусственного Интеллекта — недопущение проблемы вагонетки. Мы не должны давать возможность ИИ-системам решать такие морально-этические проблемы (просто потому, что у них нет решения, и сам человек решает их неоднозначно). А, стало быть, мы должны учить ИИ-системы недопускать их возникновения. Так-то.