Роботы появились в нашей повседневной жизни. Если в прошлом сценаристы и писатели-фантасты писали об автономных автомобилях, то сегодня самоходные автомобили становятся реальностью с удивительной скоростью. Мы все надеемся, что роботы сделают нашу жизнь лучше. Ведь у них практически неограниченные возможности по обработке информации, их внимание меньше, чем у нас, и они совершают меньше ошибок.
Сценарий вождения самоходных автомобилей, например, предлагает новые возможности для облегчения мобильности обездоленных людей, таких как инвалиды, пожилые люди и люди, слишком молодые для вождения.
- Но, что, если езда в самоходном автомобиле заканчивается смертельным несчастным случаем, было бы глупо полагать, что само вождение автомобиля защищено от ошибок. Они могут нормально функционировать только в том случае, если они безопасно взаимодействуют со своей средой, особенно с окружающим их движением, которое включает в себя водителей, пешеходов, велосипедистов и, в будущем, других самоходных автомобилей. Самоходный автомобиль может быть неспособен должным образом реагировать на непредвиденный кризис, или его сложная технология может просто выйти из строя и привести к аварии, повлекшей за собой повреждение, травмы или еще хуже. Когда это произойдет, неизбежно возникнет возмущение общественности, сопровождаемое требованием определения ответственности, включая распределение гражданского ущерба и уголовной ответственности.
- Вопрос об ответственности за такие сбои трудно решить, поскольку самодвижущиеся автомобили работают не только без водителя, но и без полностью определенного режима эксплуатации.
Отличительной особенностью интеллектуальных агентов, таких как самодвижущиеся автомобили, является интеллектуальная технология, которая обеспечивает сбор данных о закономерностях и реагирует на них без вмешательства человека.
Например, самоходные автомобили, скорее всего, смогут извлечь уроки из собираемых ими данных. Они обнаруживают закономерности во вселенной данных, строят модели на их основе и используют эти модели для прогнозирования и/или принятия решений. Это означает, что самоходный автомобиль частично является продуктом инженера и частично машины с самообучением. Это набор предустановленных алгоритмов, условий окружающей среды, вклад пользователей и искусственного интеллекта. Роботы, конечно, следуют инструкциям, но эти инструкции говорят им быть независимыми, учиться на "опыте", пробовать новые стратегии и учиться на результатах этих испытаний. Поскольку машина делает свои собственные выводы, эти результаты невозможно предсказать заранее. Ни производители и программисты, ни пользователи не могут предвидеть все возможные действия робота, все они могут с уверенностью сказать, что интеллектуальный агент разработает свои собственные решения.
Специалисты в области частного права и страхового права обсудили вопрос об ответственности за ущерб, причиненный роботом.
- Правоведы предложили, чтобы интеллектуальные агенты сами несли ответственность за ущерб, возможно на основе схемы безотказной ответственности.
- Другие варианты заключаются в создании частного фонда для возмещения ущерба тем, кто пострадал от действий роботов, или в создании систем страхования.
- В частном праве возможность привлечения к ответственности других субъектов, помимо физических лиц, за ущерб не является исключительной; таким образом, система может без особых трудностей покрывать ответственность роботов.
- В уголовном же праве, напротив, трудно охватить "действия" негуманитарных агентов.
Поскольку международное уголовное право в отношении роботов отсутствует, каждая национальная правовая система должна разработать решения, основанные на ее собственных общих правилах и принципах. Такие прагматичные правовые системы, как системы Соединенных Штатов, возможно, смогут адаптировать свои модели уголовной ответственности за действия роботов, поскольку они интегрировали "действия" не человекообразных юридических лиц в свои системы уголовного права.
Одним из примеров является Германия, чья доктрина уголовного права по-прежнему прочно укоренилась в идеалистической философии XIX века. Германия до сих пор сопротивлялась идее расширения уголовной ответственности не гуманитарных агентов, включая корпорации и других юридических лиц. Таким образом, если уголовная ответственность за действия роботов может быть интегрирована в немецкую систему, должна быть возможность повторить этот подвиг, где угодно.
Уголовная ответственность роботов?
Давайте сначала рассмотрим вопрос о том, может ли закон относиться к интеллектуальным агентам как к субъектам, подлежащим уголовному наказанию.
В прошлом это в первую очередь относилось к научно-фантастическим романам и фильмам. Философы долго обсуждали этот вопрос и пришли к разным выводам. Один из подходов основан на способности к саморефлексии.
- Джон Локк, например, писал, что "умный агент", означающий человека, должен быть "способен на Закон, на Счастье и Страдание". Более того, такой агент должен осознавать собственное прошлое.
- Иммануил Кант также подчеркнул важность самосознания. Поскольку человек осознает себя, он понимает свою свободу и знает, что причиной каждого из своих действий является собственная воля. По этой причине человек знает, что он мог бы воздержаться от совершения каждого из своих действий и, следовательно, считать себя ответственным за свои действия. Кант рассматривает неудержимый голос совести как доказательство истинности этого утверждения. Как следствие, ответственность за свои действия могут нести и другие лица.
Очевидно, философы XVIII и XIX веков не думали о современных роботах. Но очевидно, что современный Интеллектуальный Агент не отвечает требованиям персонификации в идеалистическом смысле: хотя робот может научиться и принимать решения, которые люди не могут предвидеть, он, тем не менее, не может осознавать свою свободу, не может понять себя как существо с прошлым и будущим и, конечно, не может понять концепцию прав и обязанностей. Даже способные к обучению роботы не имеют совести и не думают о том, причиняют ли их действия вред.
Оглядываясь назад на быстрые изменения, произошедшие в компьютерных науках в последние десятилетия, не исключено, что интеллектуальные агенты будущего приобретут качества и возможности, которые сделают их еще более похожими на людей. Должны ли они обрести способность к саморефлексии и что-то вроде совести, вопрос о своей индивидуальности, возможно, придется переосмыслить. Но если роботы не являются людьми в философском или правовом смысле, могут ли они все еще подвергаться наказанию?
Подробнее о ситуации в США и Германии можно прочитать здесь