Найти тему
Научный деятель

Уголовная ответственность человека за созданную им машину-робота. Часть 2 (начало)

Оглавление
https://www.pinterest.ru/pin/474989091923233709/
https://www.pinterest.ru/pin/474989091923233709/

Читать Часть 1

Перспектива робота

Современные интеллектуальные агенты могут принимать решения, основанные на оценке своих возможностей. Их можно научить реагировать на "моральные дилеммы", т.е. отказываться от достижения цели, если она может быть достигнута только путем причинения значительного побочного вреда. Например, если автомобиль запрограммирован на то, чтобы быстро и без объездов достичь пункта назначения, его можно (и нужно) запрограммировать таким образом, чтобы он не переезжал пешеходов, блокирующих дорогу.

Исследователи, занимающиеся новой областью машинной этики, пытаются определить, можно ли - и если да, то каким образом - программировать в роботы систему принятия решений, основанную на морали. В настоящее время эти усилия все еще находятся в зачаточном состоянии, главным образом потому, что формализация этических решений представляется чрезвычайно сложной. Роботы могут быть запрограммированы на систему "заслуг" и "неудач" при принятии ими определенных решений, и эта система может рассматриваться как аналог самоопределения человека на моральных основаниях. После того как этот шаг будет сделан, вопрос о признании роботов виновными в уголовном преступлении больше не будет оставаться открытым. Интеллектуального агента можно "обвинить" в его действиях, если он способен признать, что он является нежелательным и поэтому способен оценить их как "негативные".

Если предположить, что роботов можно обвинить, можно ли их наказать? Санкции, предусмотренные нашими уголовными кодексами, направлены на людей; они не предназначены для наказания нечеловеческих организаций. Даже в тех случаях, когда юридические лица формально подвергаются уголовному наказанию, (в основном денежному), имеющиеся санкции не направлены на воздействие на корпорацию как таковую, а скорее на тех людей, которые заинтересованы в финансовом благосостоянии корпорации: акционеров, членов или руководителей корпорации. В настоящее время трудно представить себе санкции в отношении тех же интеллектуальных агентов, которые могли бы применяться к ним.

 Поскольку робот не имеет собственности (по крайней мере, он не может знать, что у него есть собственность), любой штраф, наложенный на него, должен быть оплачен его законным владельцем или каким-либо фондом, созданным для потенциальной ответственности. Физическое уничтожение или повреждение робота может, по мнению человеческого наблюдателя, выглядеть как телесное наказание или еще строже, но это не окажет сопоставимого эффекта на робота до тех пор, пока он не будет пронизан желанием жить ("здоровым" образом).

Короче говоря, роботы не способны понять смысл наказания и, следовательно, не могут установить связь между тем, что "с ними сделали", и их предыдущей виной. В целом, роботы, которые принимают меры только в соответствии с запрограммированным способом, могут не попадать под определение субъектов в смысле уголовного права. Даже роботы, которые, как представляется, принимают свои собственные решения, выявляя закономерности в своей памяти и выбирая один из возможных вариантов действий, в настоящее время не обладают таким самосознанием и саморефлексией, которые позволили бы им стать объектом обвинений. Но это может измениться, если Интеллектуальные агенты научатся решать и решать вопросы морали. Последним шагом будет создание условий, при которых роботы смогут понимать наказание, т.е. научат их ассоциировать определенные изменения в своей среде с противоправностью своих предыдущих действий. Однако, как представляется, предстоит пройти еще долгий путь, прежде чем этот заключительный этап будет достигнут. 

https://www.pinterest.ru/pin/50595195783730348/
https://www.pinterest.ru/pin/50595195783730348/

Уголовная ответственность человека за машину? 

Если роботы не могут быть наказаны, то при каких условиях следует привлекать людей к уголовной ответственности за производство, программирование или использование интеллектуальных машин, причиняющих вред? Например, должен ли инженер, помогающий в разработке самоходного автомобиля, нести уголовную ответственность, если автомобиль "принимает решение", которое приводит к несчастному случаю постороннего лица? 

Если человек намеренно или сознательно программирует свое техническое создание так, чтобы он причинил кому-то вред, то уголовная ответственность программиста может быть легко установлена на основе традиционных концепций атрибуции и мужской реалии: программист совершает преступное деяние, используя робота - независимо от его искусственного интеллекта - в качестве инструмента для реализации намерения программиста, и она делает это с необходимым намерением или знанием.

 

Случаи халатности создают большие проблемы. Может ли производитель, программист и/или владелец (далее совместно именуемые "оператор") автомобиля, управляемого самостоятельно, нести уголовную ответственность за причинение телесных повреждений пешеходу по неосторожности?

Возьмем, например, самодвижущуюся машину, которая переезжает маленького ребенка, потому что датчики сканирования окружающей среды неправильно истолковывают окружающую ее среду и не идентифицируют ребенка как человека. 

Чтобы ответить на этот вопрос и сравнить вопросы ответственности, вытекающие из целого ряда сценариев, можно обратиться к своду законов - уставам и делам, связанным с небрежным использованием машин людьми. Нам в принципе не нужно отходить от обычных инструментов ответственности за продукцию.

Читать продолжение...