19 апреля в рамках Российского интернет-форума («РИФ + КИБ 2017») прошла секция «Роботы и искусственный интеллект: законодательство и правоприменение». Никита Куликов, исполнительный директор HEADS Consulting, учредитель проекта «Право роботов», рассказал, как обстоит дело с законодательным регулированием робототехники.
На сегодняшний день в российских законах не найти терминов «робот», «робототехника», «искусственный интеллект». А если этого нет, то и, стало быть, регулировать нечего. Но и мировое сообщество далеко не ушло. Европейский Совет рассматривает черновые варианты, связанные с законодательством в сфере робототехники и права роботов.
«Мы находимся в зачаточной стадии, когда надо принять терминологию, определиться с ней, а после этого уже принимать законы, как это регламентировать. Самое интересное, что зарубежные коллеги тоже только начинают. Мы не отстаем так глобально, как в других отраслях, тут мы идем явно наравне. Шаблонов нет, все принимают все на свой страх и риск. В любом случае все будет еще меняться, модернизироваться и модифицироваться», – поделился Никита Куликов.
Что нам говорит о роботах "Википедия"? Робот – это автоматическое устройство, созданное по принципу живого организма, предназначенное для осуществления производственных и других операций, которое действует по заранее заложенной программе и получает информацию о внешнем мире от датчиков. Дальше идет деление по видам роботов: промышленные, медицинские, бытовые, боевые и прочие. Большая советская энциклопедия тоже говорит, что робот – это машина-автомат, моделирующая функции живых организмов.
А что законодательство? По запросу «Робот» «Консультант+» выдает всего два документа. Первый – приказ таможенной службы России от 2012 года, где робот характеризуется как манипулятор, второй – приказ Министерства Образования и Науки РФ. Тут есть понятие робототехники, описанное как область науки и техники, ориентированная на создание роботов и робототехнических систем.
Киберкодекс
Никита Куликов предлагает разработать киберкодекс. Робототехника развивается активно, оперативно, и все новые тенденции быстро реализуются. Это слишком большая отрасль, чтобы ее загонять в рамки закона, поправок к закону. Поэтому разработка такого кодекса – сложный и длительный процесс. Документ обсуждается с 2011 года, но пока так и не принят.
В начале 2017 года Владимир Путин дал поручение профильным ведомствам, чтобы они разработали и подготовили стратегическую программу «Цифровая экономика», которая будет учитывать цифровые, технические, организационные, финансовые аспекты перевода различных отраслей экономики в России. Делается это для модернизации смежных с робототехникой областей. Пока технологии развиваются, остальные отрасли тоже будут под них подстраиваться, модернизироваться.
Основные "выгодоприобретатели" при такой системе – страховые компании. Предлагать застраховаться можно будет от всего: упадет ли беспилотник, машина въедет или не въедет, можно создать резервный фонд. Никита также упомянул, что должна быть разработана программа переподготовки кадров: «Машины могут заменить людей. Я считаю, что полностью этого не произойдет, человек все равно так или иначе будет контролировать машину. Нужно быть готовым ко всему и лучше начать это делать сейчас. Чем потом переучиваться. Также о регламентации отрасли необходимо продумать сейчас. Мы стоим в начале пути, и у нас есть шанс совершить рывок и быть впереди».
Предлагаемые законы
Пока в фантастическом, волнующем мире роботов у нас есть не менее фантастические законы. Айзек Азимов, американский писатель-фантаст, популяризатор науки и биохимик, сформулировал три закона робототехники. Правила поведения для роботов писатель сформулировал в 1942 году в рассказе «Хоровод». Позже еще три рассказа он посвятит применению этих законов. Именно из его произведений в обиход вошел термин "робототехника". Эти законы предписывают:
- Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
- Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
- Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
В 1985 году в романе Роботы и Империя (англ. Robots and Empire) Азимов предложил Нулевой Закон:
0. Робот не может причинить вреда человеку, если только он не докажет,
что в конечном счёте это будет полезно для всего человечества.
«В целом законы были пригодны, когда мы к этому относились, как к вещи, которая будет достижима в будущем, но не сейчас. В настоящий момент это будущее уже наступило», – считает Никита.
Ответственность за ошибки
А что же с ответственностью? Кто ответит за ошибки человека? «Это как с автомобилями: если в ходе следственной экспертизы будет доказано, что некий функционал был потерян в связи с тем, что производитель что-то не доработал, то это его ответственность. Если возник вопрос неправильной эксплуатации, то виноват потребитель. Соответственно, тут можно перенять эти принципы и на роботов. Когда будет некий уникальный случай – там надо будет уже рассматривать отдельно, – рассказал Никита robot-davinci.ru. – А вот если хирург во время операции допустил ошибку – здесь вопрос к специалисту. Он является не только оператором и управляющим, но и мозгом этой операции, и если он считает, что нужно делать так, то никакая машина за него не должна решать, что нужно делать иначе».
Материал подготовлен редакцией портала robot-davinci.ru, текст Юлии Мельниковой