Прошла тест на нравственность https://meduza.io/feature/2016/03/03/proverte-svoyu-nravstvennost
Не очень понимаю, почему топят за анонимность, говорят о том, что тест психологически сложный, и в ленте я его у многих видела, но результатами никто не делится. У меня средний балл (такой же у большинства читателей): «Вы — мастер компромисса и не любите совершать моральный выбор». Интересно, что пишут в полярных вариантах.
Не вижу здесь чего-то нового, кроме разных интерпретаций проблемы вагонетки (к слову сама эта задача там тоже фигурирует). В своей статье про ИИ я писала о проводимых экспериментах по моральному выбору и результаты там точно такие же, как резюмирующие слова в статье Медузы: ИИ готов пожертвовать одной жизнью, чтобы спасти больше людей, но специально убивать никого не станет. Так (теоретически) думает человек и такую моральную установку закладывают в ИИ, хотя есть вероятность, что, оказавшись перед выбором, взаимодействие нейронных сетей может выдать неожиданный вариант, который машина и реализует.
Что в тесте интересно, так это полярные точки ответов: точно нет; можно сделать; точно да. У меня большинство ответов «можно сделать», нет ни одного «точно да» и единственный с точным отрицательным вариантом: последний. В случае с детьми и доносами никакая психология в пользу выбора возможности жизни нескольких вместо одного не работает. Возможно, это субъективный случай.
На эту тему хочу посоветовать один очень крутой фильм:
«Немыслимое»/«Unthinkable» (2009). Не видела ещё ничего более взрывающего мозг в поисках решения моральной дилеммы.