Норма или нет, зависит от того, в каком будущем человечество собирается жить! Будущее, где мир захватывает искусственный интеллект, как раз и может появиться от бесконтрольного засилья алгоритмов. О чем эта статья?
Немного фантастичное изложение ситуации с реальными требованиями может заинтересовать программистов роботизированных систем, будущих юристов по информационному праву (модная тема курсовой, например) и, просто, любознательных пользователей. Профессионалам в области создания ИИ, а также машинного обучения, эта статья может показаться очевидной - так и должно быть, излагаю основы. Итак, кратко и последовательно!
Профессиональная этика у роботов
Речь идет не о роботах, которые ругаются матом и потому неэтичные, а о системах, которые реализованы без соблюдения норм человеческого восприятия и поведения. Отсутствие этики может проявляться в двух видах:
- неэтичная реализация алгоритма (например, робот-консультант сообщает сведения не соблюдая установленные правила и традиции, заведенные людьми в этой консультационной нише);
- неэтичное применение (например, интеллектуальную систему обеспечения безопасности использовать для слежки за гражданами).
Еще немного примеров. Если робот-юрист начнет своему клиенту толкать ободряющие речи вроде: "Ваши партнеры неправы! Идите с этим в суд! Однозначно суд выиграем! Только к другим юристам не обращайтесь, время потеряете!" Юристы, прочитав эти строки могут найти в них классические примеры нарушений этики консультирования. "А, что здесь такого?" - мог бы спросить разработчик алгоритма, который не в курсе специфики. Все очень просто:
1. Нужно говорить о правах клиента, а не о нарушениях других (клиенту нужно сказать: "Вы правы", "У Вас есть такое право").
2. Решение о защите своих прав принимает клиент самостоятельно, запрещено навязывать решение (клиенту говорят: "Вы можете обратиться в суд").
3. Гарантировать положительное решение судьи юрист не может.
4. Запрещать консультироваться у других юристов или запугивать клиента некачественной консультацией конкурентов юрист не имеет право.
Таковы некоторые правила юридической этики и они должны быть заложены в роботе-консультанте, который на сайте или в виде отдельного аппарата представляет какую-нибудь компанию, которая должна гарантировать качество обслуживания и нести ответственность.
При создании различных приложений опытные программисты учитывают местные традиции, культуру, стиль и главное, пожелания заказчика. Пока что, по законодательству, если заказчик не оформит своё требование в виде технического задания разработчику, всю ответственность за работу системы, представляя её своим клиентам, несёт сам заказчик. В дальнейшем могут появиться специальные люди-тестеры, подающие на компании в суд по защите прав потребителей за неполное или неэтичное оказание услуг роботом. Также, как и могут появиться условия ухода от ответственности исполнителя в пользовательском соглашении, хотя не во всех случаях такое условие будет иметь силу.
С неэтичным использованием систем все ещё сложнее. Во времена расцвета популярности почтовых сервисов пользователи стали замечать, что появляется реклама на тему содержимого письма - неприятно, как будто кто-то читает письма. В большинстве случаев, письма действительно читают рекламные фильтры. На своих выступлениях Андрей Себрант (директор по маркетингу сервисов компании "Яндекс" ) приводил пример работы искусственного интеллекта: в одном случае - это спам-фильтры, работой которых пользователи довольны, в другом - контекстная реклама.
Так в чем здесь проблема? Все законно, с оговорками, но в спам-фильтре система защищает от навязчивости, а в рекламном-фильтре, иногда навязывает - вроде, как неэтично. Пользователь знает, что согласился с условиями сервиса, но различия этичного применения функций чувствует.
Нормы этики для роботов в законодательстве
Пока все нормы для людей, а роботизированная система - всего лишь, инструмент для оказания услуг человеком. Но в статье Кто ответит за действия роботов? я уже отмечал, что разными специалистами поднимается вопрос о создании единой системы госконтроля за киберпространством. Какие изменения нужны сейчас (моё субъективное мнение):
1. Законодательное регламентирование норм общечеловеческой морали для реализации в алгоритмах роботизированных систем. Сейчас, рекомендации просты: нормы Конституции России и действующего законодательства. Но нужен сводный документ для разработчиков, согласно которому можно будет проверить любую реализованную систему. Кто будет проверять?
2. Нужно создать орган контроля за соответствием нормам человеческой морали и профессиональной этики алгоритмов роботизированных систем и обязать разработчиков проводить проверку своих продуктов.
Почему проверку должен осуществлять разработчик? Проверка и регистрация продукта должна быть произведена на профессиональном уровне и заказчику должен передаваться безопасный продукт.
3. Нужно проводить периодическую оценку качества обслуживания населения роботами, силами службы надзора и контроля качества услуг.
Зачем нужны такие законодательные инициативы? Цель: повышение безопасности граждан, комфорт (наличие обязательных функций), культура (робот не может нахамить, робот может помочь, правильно оценив ситуацию).
Если роботу-консультанту дать команду: "Распечатай или отправь на почту весь наш разговор", то пока можно услышать в ответ, что данная функция не предусмотрена. За процессом консультации пользователь обязан следить сам и фиксировать своими силами. Было бы удобней, в случае плохого обслуживания, дать команду "Распечатай текст диалога и отправь копию в службу надзора за роботами".
Особенности законотворчества таковы, что чаще нормы разрабатываются не в упреждение ситуации, а по факту правонарушений и собранной статистики сбоев и ошибок. Как бы там ни было, но миф о захвате мира искусственным интеллектом можно развеять четкими действиями по контролю за созданием и внедрением роботов. Роботам должно быть отведено законом правильное место в человеческом обществе.
Эта публикация программисту - к сведению, будущему юристу - мысли для рефератов и подготовки.
3 июля 2018 года.
Автор: Демешин Сергей Владимирович (юрист).
Участвуйте в обсуждении, пройдите опрос об интересных темах будущих публикаций (ссылка опроса в описании канала, также в описании указаны правила комментирования публикаций).