Пандемия COVID-19 «подлила» масла в огонь – спешный и массовый переход на «дистант» сотен тысяч людей в России и в мире, как для получения услуг, так и для безопасной работы, - всё это потребовало новых форм взаимодействия, в немалой степени используя искусственный интеллект. Юриспруденция не стала исключением: LegalTech также набирает обороты.
Несмотря на присущую консервативность, технологические решения (автоматизации, аналитики и т.д.) являются актуальными и востребованными как для юристов и адвокатов, так и для судей.
Что касается последних, то не только в отношении них, но для них по всему миру создаются программные продукты с искусственным интеллектом, берущим на себя часть юридической работы. Некоторые из таких продуктов – фактически участвуют в правосудии, хотя и не подменяют собой судью-человека.
Как выглядит на практике так называемое «предсказанное правосудие», рассказываем на PLATFORMA Media.
Что такое "предсказанное правосудие"?
По определению российских учёных-исследователей, «предсказанное правосудие» предоставляет собой алгоритмы для анализа в короткие сроки огромного количества ситуаций, позволяющих предвидеть исход спора или, по крайней мере, оценить шансы на успех.
Оно помогает: выбрать правильный способ защиты, наиболее подходящие аргументы, оценить предполагаемую сумму компенсации и т.д. Таким образом, речь идет не о самом правосудии, а лишь об аналитических инструментах, которые позволили бы прогнозировать будущие решения в спорах, аналогичных тем, которые были проанализированы.
Иными словами, в практическом применении «предсказанное правосудие» – использование специальной программы-алгоритма с искусственным интеллектом, который способен обработать большое количество различной правовой (и не только) информации, и по итогу – выдать прогноз о наиболее вероятном (порой и предпочтительном – об этом ниже) исходе ситуации, возможном решении суда.
Такие данные используются не только юристами-представителями по делам c целью выстраивания наиболее выигрышной позиции, но и некоторыми зарубежными судами при принятии решений.
Казнить нельзя помиловать: что решит искусственный интеллект?
США одними из первых стали внедрять системы на основе искусственного интеллекта при отправлении правосудия, и довольно активно сразу в уголовно-правовой сфере.
Например, в штате Нью-Джерси благодаря действию программы «Оценка общественной безопасности» (анализирует целую совокупность рисковых факторов) на 16% увеличилось число лиц, отправленных под залог, а не в следственный изолятор.
Схожий с указанным алгоритм другой программы помог округу Лукас (штат Огайо) удвоить количество досудебных освобождений без залога и также вдвое сократить количество преступлений, связанных с нарушением мер пресечения.
В то же время возникают сомнения в объективности, беспристрастности и гуманности рекомендаций машинного разума.
Так, The New York Times писала о резонансном решении, принятом хотя и судьёй-человеком, но на основе рекомендаций искусственного интеллекта. Речь шла о программе COMPAS (Correctional Offender Management Profiling for Alternative Sanctions). Проанализировав совокупность информации о подозреваемом, а также об обстоятельствах совершённого им преступления, искусственный интеллект «посоветовал» приговорить гражданина штата Висконсин Э. Лумиса (Mr. Eric Loomis) к 11-летнему наказанию: их них 6 лет – реального срока и 5 лет – усиленного надзора (наблюдения), хотя совершённые преступления не предусматривали тюремного заключения. Одним из решающих аргументов COMPAS’а стал довод о высоком риске рецидива (ранее Э. Луис уже попадал в поле зрения закона).
Именно эти данные повлияли на решение судьи-человека – Э. Луис был отправлен в тюрьму. Верховный суд штата Висконсин отклонил его протест, Верховный суд США – жалобу рассматривать отказался.
После придания этому случаю огласки, разработчики программы совместно с представителями портала Propublica (объединяет сообщество учёных, негативно относящихся к ИИ) провели анализ алгоритмов COMPAS’а на предмет предвзятости по признаку пола, расы, национальности, уровня дохода и т.д.
Как ни странно, алгоритмы COMPAS по построению нейронных сетей и глубокому обучению математически были признаны обеими сторонами исследования безупречными, как и сама программа в статистическом смысле. Статистическая безупречность означает, что нейронным сетям удалось установить наиболее точную зависимость между выходными данными и входными, т. е. между данными, представляющими профиль того или иного индивида, и критериями риска.
Продолжение на сайте «PLATFORMA.MEDIA»