Развитие цифровых технологий в эпоху информационного общества показало перспективность процесса внедрения искусственного интеллекта во многие отрасли человеческой жизнедеятельности.
Анализ мирового опыта в части определения областей деятельности, в которых возможно и фактически осуществляется или планируется делегирование полномочий, функций, обязанностей системам ИИ, можно выделить следующие:
- государственные услуги и управление
- правоохранительная деятельность (распознавание лиц системами видеонаблюдения)
- судебная деятельность (поддержка решений судьи, в том числе для обеспечения единообразия судебной практики, скоринговые системы, оценивающие вероятность совершения рецидива, рассмотрение определенных категорий споров)
- таможенная деятельность
- сфера здравоохранения
- банковская деятельность (кредитный скоринг, предложение персонализированных услуг)
- подбор персонала
- рынок недвижимости (скоринг благонадежности потенциальных арендаторов).
Отечественный механизм правового регулирования общественных отношений с применением систем искусственного интеллекта на сегодняшний день охватывает различные сферы, к которым относятся:
- систематизация и учет нормативно-правовых актов, судебной практики и составление статистической отчетности;
- регулирование сфера безопасности дорожного движения (фиксация нарушений ПДД, smart камеры и др.);
- регулирование рынка ценных бумаг (создание роботов, торгующих акциями);
- регулирование сферы обслуживания, банки и иные кредитные учреждения (технические консультанты при оформлении кредитов, сопровождении сделок и т.д.);
- усовершенствование системы распознавания лиц (контроль режима самоизоляции в период пандемии COVID 19, быстрое раскрытие правонарушений);
- составление процессуальных документов (с 2017 года Сбербанк внедряет робота-юриста, который может сам писать исковые заявления в предельно короткие сроки).
Данные способы применение технологии искусственного интеллекта являются достаточно успешными, так как данные операции могут быть запросто представлены в виде определенных программных алгоритмов, в которых нет необходимости в человеческом факторе.
Однако не следует забывать о том, что существуют сферы, где использование искусственного интеллекта нежелательно и даже вредно. Примером такой сферы является психология. Машина на данном этапа развития технического прогресса еще не способна определять психическое состояние лица, что исключает возможность использования машин в уголовном процессе и гражданском процессе, связанном с компенсацией морального вреда.
Однако некоторые страны уже делают первые шаги к внедрению искусственного интеллекта в судопроизводство. В 2017 году Китай внедрил интеллектуальную систему анализа доказательств, которая основана на системе блокчейн с использованием искусственного интеллекта, облачных данных и других передовых технологий, позволяющих судье получать результаты анализа доказательств одним щелчком мыши. После того, как стороны представят доказательства, система проанализирует и сопоставит их, а также сформирует необходимый список доказательств в соответствии с практикой судебного разбирательства. Так же в Китае набирает обороты практика передачи полномочий по принятию судебных решений искусственному интеллекту. На данный момент принято уже 3 миллиона судебных решений.
В США в настоящий момент активно реализуется институт «оценки общественной безопасности», когда судья прибегает к помощи искусственного интеллекта для анализа и оценки рисков, связанных с пребыванием обвиняемых на свободе до вынесения приговора. Если искусственный интеллект дает заключение, что риск совершения нового преступления или уклонения от явки в суд минимальный или отсутствует, судья полагается на это суждение и либо оставляет обвиняемого под стражей, либо отпускает под залог.
В научной среде высказываются предложения по ограничению распространения искусственного интеллекта в правовой сфере. Предлагается внедрить комплекс ограничений в использовании искусственного интеллекта, к которым относятся:
- использовать искусственный интеллект в правореализационном процессе можно исключительно на основе технологий (алгоритмов), созданным человеком, потому что использование алгоритмов, созданных самим искусственным интеллектом несет риск потери контроля над ними со стороны человека;
- использование искусственного интеллекта в правоприменительной практике должно начинаться и оканчиваться советующими процессуальными решениям;
- искусственный интеллект должен находиться под постоянным контролем государственных служащих;
- запрет на произвольное самообучение искусственного интеллекта, не контролируемое человеком.
Сами пределы использования искусственного интеллекта можно классифицировать на:
- парадигмальные пределы
- аксиологические пределы
- прагматические пределы
Парадигмальные пределы — пределы, определяемые господствующими фундаментальными представлениями о природе права, изменение которых невозможно без изменения общей парадигмы современной социальной реальности; с точки зрения области знаний данные пределы связаны с теоретико- и философско-правовыми исследованиями;
Аксиологические пределы — пределы, определяемые господствующими и формально закрепленными ценностями, используемыми в нормотворчестве и юридической аргументации. Как правило, такие ценности выражены в правах человека, закрепленных на внутригосударственном и международном уровнях.
Прагматические пределы — пределы, вытекающие из ограничений технологии, существующих на данный момент, или из контекста их применения, но не связанных напрямую ни с фундаментальной природой права, ни с базовыми ценностями определенной правовой системы.
Использование искусственного интеллекта в правоприменении требуют большей правовой определённости, а может вовсе изменения подхода к созданию норм права. На данный момент научно-технический прогресс не способен полностью автоматизировать данную сферу общественных отношений. Даже если технологии позволят полностью заменить человека, необходимость во внешнем контроле за машиной сохранится.
Благодарю за внимание. При желании, вы можете оценить данный материал и выразить свое мнение в комментариях. Подписывайтесь на канал, чтобы не пропустить новые статьи.