Искусственный интеллект (ИИ) сегодня проникает в сферы, которые ранее считались исключительной прерогативой человеческого суждения, такие как юриспруденция и уголовное правосудие. Машины, оперирующие сложными статистическими моделями, начинают принимать решения о свободе человека: определять вероятность совершения повторного преступления, оценивать риски и даже влиять на приговоры. Это не научная фантастика, а насущная реальность, которая ставит перед нами острые этические и методологические вопросы.
Я вижу, что в основе этого процесса лежит соблазн объективности и эффективности. В США, например, в условиях аномально большого количества заключенных по сравнению с другими странами, реформы, направленные на повышение общественной безопасности, требуют внедрения систем оценки риска. ИИ предлагает инструмент, который, как кажется, может избавить судебную систему от человеческих предубеждений и ошибок. Однако я убежден: когда мы делегируем машинам право принимать решения о судьбах людей, мы рискуем не избавиться от предвзятости, а лишь закрепить ее в алгоритмах, сделав ее невидимой и неконтролируемой.
ИИ в юриспруденции это не универсальный разум, а узкоспециализированный технический продукт, основанный на математике и статистике. Такие системы используют алгоритмы машинного обучения для анализа огромных объемов данных в данном случае, исторических данных о преступлениях, характеристиках заключенных и рецидивах. Цель этих систем прогнозирование. Они предсказывают вероятность того, что человек совершит новое преступление, руководствуясь принципами теории вероятности.
Если говорить о конкретных функциях ИИ, то здесь задействованы:
- Кластеризация и поиск закономерностей. ИИ ищет скрытые закономерности и корреляции между не связанными явным образом данными, которые могут быть неуловимы для человеческого глаза. В уголовном правосудии эти закономерности используются для классификации заключенных по категориям риска: минимальный, низкий, средний или высокий.
- Обработка неструктурированного текста. Юридическая сфера, как и медицина, насыщена неструктурированным текстом: заметками, отчетами, документами. ИИ может использовать функцию понимания естественного языка для извлечения, выделения и анализа контекста и смысла этих документов, что ускоряет и оптимизирует выявление несоответствий.
В США, например, Закон о первом шаге требует от Генерального прокурора разработать такую систему оценки рисков. Эти инструменты помогают судьям и сотрудникам правоохранительных органов принимать решения о досрочном освобождении, условно-досрочном освобождении и назначении наказания.
Именно в этой погоне за точностью кроется главная опасность: ИИ не обладает этическим компасом. ИИ оперирует только числами и не «понимает», что они означают; он безразличен к вводимым данным, будь то погодные показатели или анкеты людей. Эта «неосведомленность» о смысле данных может обернуться серьезным недостатком, создавая проблему «непреднамеренного смещения» (предвзятости).
Проблема в следующем:
- Воспроизведение предвзятости. ИИ-модели обучаются на исторических данных, которые, к сожалению, могут отражать существующие в обществе предубеждения. Если исторически определенные социальные группы подвергались более частому преследованию или им чаще назначались более строгие меры наказания, алгоритм просто воспроизведет эту предвзятость, закрепив ее в будущем. ИИ-системы, будучи технически совершенными, рискуют просто скопировать текущий процесс, поведение и политику, а не создать справедливое правосудие.
- Непрозрачность «черного ящика». Многие современные ИИ-системы, особенно использующие глубокое обучение, являются «черными ящиками». Разработчики не всегда могут точно объяснить, почему каждый из многочисленных параметров сети получил определенное значение, и почему система выдает тот или иной результат. В уголовном правосудии, где на карту поставлены лишение свободы и общественная безопасность, такая непрозрачность неприемлема.
- Политический выбор порогов риска. Выбор порогов, например, что считать «средним» или «высоким» риском совершения другого преступления, является не математическим, а политическим выбором. Он должен осуществляться с учетом целей политики в области уголовного правосудия и соответствующих данных. Машина может предложить вероятностную оценку, но определение того, какой уровень риска является приемлемым для общества, остается за политиками и судьями.
Таким образом, ИИ может принести несоразмерное применение правосудия, если судьи неправильно интерпретируют баллы, присвоенные алгоритмом. Например, если 5-балльная шкала риска интерпретируется как абсолютные уровни (1 балл = 0–20% риска), тогда как на самом деле она отражает лишь относительные оценки.
ИИ в юриспруденции это классический пример того, как технологическая новинка может обернуться негативным социальным последствием, если она не встроена в соответствующий этический и социальный контекст.
Чтобы обеспечить ответственное использование ИИ в столь критичной сфере, необходимо сместить фокус с автоматизации приговоров на расширение возможностей человеческого суждения:
- Требование интерпретируемости. Разработчики должны следить за тем, чтобы интуитивная интерпретация оценок риска не противоречила предполагаемому прогнозированию. Инструменты должны быть разработаны с учетом того, что люди судьи и сотрудники будут их использовать. Интерпретируемость является свойством инструментов, используемых людьми, и зависит от того, насколько эффективно они могут быть использованы.
- Этический контроль и аудит. Необходима институциональная приверженность найму статистических и криминологических экспертов для обеспечения надлежащего сбора и анализа данных. Это требует постоянного мониторинга моделей и производимых ими прогнозов, чтобы избежать несоразмерного применения правосудия.
- Признание роли человека. Главная ценность человека в этом процессе заключается в его «этическом компасе», которого нет у ИИ. Человеческое суждение критически важно там, где цели субъективны и требуется социальное познание. ИИ должен служить советником, предоставляющим данные и прогнозы, но окончательное решение о свободе и судьбе человека должно оставаться за судьей, который способен к сочувствию, мудрости и чувству справедливости.
ИИ в юриспруденции это не способ уйти от сложных решений, а лишь механизм, который делает эти решения более информированными. Если мы не сможем решить проблему контроля над алгоритмами и не гарантируем, что их цели согласуются с нашими представлениями о справедливости, мы рискуем создать систему, которая будет использовать математическую точность для воспроизведения и усиления самой отвратительной человеческой предвзятости. Наша задача сделать ИИ прозрачным, подконтрольным и, самое главное, служащим гуманистическим идеалам, а не логике чистой статистики.