Какую роль этика могла бы сыграть в определении архитектуры управления для полуавтономных и автономных роботов, используемых в армии? Какие моральные нормы или этические подпрограммы должны быть реализованы в роботе?
В статье рассматриваются способы, с помощью которых этика может быть полезна для реализации нравственности в принятии решений роботами
Инженеры очень хорошо умеют создавать системы, удовлетворяющие четкие задачи, но нет четкого описания задач для общего морального поведения, и нет единого ответа на вопрос о том, чья мораль или какая мораль должна быть реализована в автономных роботизированных машинах.
Однако военные операции проводятся в соответствии с правовыми рамками международных договоров, а также в соответствии с военным кодексом соответствующей страны. Это предполагает, что правила, регулирующие приемлемое поведение военных, возможно, могут быть адаптированы для роботов; можно попытаться спроектировать робота, который имеет четкое внутреннее представление о правилах и строго следует им.
Роботизированный код, вероятно, должен в какой-то мере отличаться от кода человека-солдата. Например, самосохранение может представлять меньшую необходимость для роботизированной системы как с точки зрения ее ценности для военных, так и с точки зрения ее программирования.
Независимо от того, какой этический кодекс, нормы, ценности, законы или принципы принимаются для разработки искусственного морального агента (ИМА), вопрос об успешном функционировании системы необходимо можно оценить только с помощью экспериментальных военных испытаний.
От эксплуатационной к функциональной этике
Безопасность и надежность всегда были заботой инженеров при проектировании интеллектуальных систем, а также военных при выборе оборудования. Транспортные средства с дистанционным управлением и полуавтономные системы вооружения, используемые в ходе военных операций, должны быть надежными, и они должны быть разрушительными только тогда, когда нацелены на обозначенные цели.
Когда роботы с даже ограниченной автономией вынуждены выбирать между различными способами действий, забота о безопасности трансформируется в необходимость того, чтобы системы обладали способностью делать моральные суждения.
Для роботов, которые работают в очень ограниченном контексте, конструкторы и инженеры, создающие системы, вполне могут различать всевозможные варианты, с которыми сталкиваются роботы, и программировать соответствующие ответные действия. Действия такого робота полностью находятся в руках разработчиков систем и пользователей; эти роботы являются оперативно-моральными. Они не нуждаются и, вероятно, не будут нуждаться в способности четко оценивать последствия своих действий. Им не нужно будет ни оценивать, какие правила применяются в той или иной конкретной ситуации, ни определять приоритетность противоречащих друг другу правил.
Тем не менее, три фактора указывают на то, что эксплуатационная мораль недостаточна для многих роботизированных приложений:
1. возрастающая автономия роботизированных систем;
2. перспектива того, что системы столкнутся с явлением, которое их разработчики не могли предвидеть из-за сложности среды, в которой они работают;
3. сложность технологии и неспособность системных инженеров предсказать, как роботы будут вести себя при новом наборе входных данных.
Сложные роботы требуют своего рода функциональной морали, чтобы сами машины обладали способностью оценивать моральные качества и реагировать на них. Однако инженеры, разрабатывающие функционально нравственных роботов, сталкиваются со многими ограничениями, связанными с современными технологиями. Кроме того, любой подход к построению машин, способных принимать моральные решения, должен быть оценен в свете возможности реализации теории в виде компьютерной программы.
Подходы создания этических роботов
Идея автономного робота общего или даже многоцелевого назначения (для управления всем спектром возможных действий может потребоваться широкая структура) гораздо шире, чем возможность автономного робота, созданного для выполнения конкретных военных задач, таких как патрулирование границ или городских районов, или применение смертоносной силы на тщательно очерченном поле боя.
Учитывая ограниченность работы таких роботов, первоначальной этической задачи будет достаточно, чтобы просто запрограммировать подходящие базовые, релевантные правила.
Подход с условным названием «нисходящий» предполагает наличие свода правил, которые могут быть преобразованы в алгоритм. В этих правилах определяются обязанности морального агента или необходимость того, чтобы агент рассчитывал последствия различных действий, которые он может выбрать. Недостатком является то, что такая жесткость может легко привести к плохим последствиям, когда происходят непредвиденные или недостаточно воображаемые программистами события и ситуации, заставляя робота плохо или просто совершать ужасные поступки именно потому, что он связан правилами.
«Восходящий» подход основан на трех источниках: инженерное проектирование при оптимизации производительности системы, эволюция и обучение и развитие человеком. Этот подход зависит от надежного машинного обучения: как и ребенок, робот попадает в разнонаправленные ситуации и, как ожидается, научится методом проб и ошибок (и обратной связи), что делать, а что нет.
Гибридный подход - предпочтительная модель для построения этических автономных роботов. Некоторые «нисходящие» правила в сочетании с машинным обучением позволяют наиболее точно определить, каким образом люди на самом деле приобретают этический опыт.
Этическое программирование военных роботов – тема для глубоких рассуждений.