Компьютерные алгоритмы могут превзойти людей в предсказании того, какие преступники будут арестованы снова, об этом говорится в новом исследовании.
Алгоритмы оценки рисков, которые прогнозируют будущие преступления, часто помогают судьям и советам по условно-досрочному освобождению решать, кто останется за решеткой. Но эти системы подверглись критике за проявление расовых предубеждений, и некоторые исследования дали основания сомневаться в том, что алгоритмы лучше предсказывают аресты, чем люди. Одно исследование 2020 года, в котором люди-добровольцы противопоставлялись инструменту оценки риска «COMPAS», показало, что люди предсказывали преступное рецидивировано примерно так же, как и программное обеспечение.
Новый набор экспериментов подтверждает, что люди предсказывают повторных преступников примерно так же, как и алгоритмы, когда людям дают немедленную обратную связь о точности их предсказаний и когда им показывают ограниченную информацию о каждом преступнике. Но люди показывают себя хуже компьютеров, когда не получают обратной связи или если им показывают более подробные криминальные профили.
На самом деле судьи и комиссии по условно-досрочному освобождению также не получают мгновенной обратной связи, и у них обычно есть много информации, с которой они могут работать при принятии своих решений. Таким образом, результаты исследования показывают, что в реалистичных условиях алгоритмы превосходят людей в прогнозировании рецидивизма, сообщают исследователи.
Вычислительный социолог Шарад Гоэль и его коллеги начали с имитации установки исследования 2020 года. Онлайн-волонтеры читали краткие описания 50 преступников, включая такие характеристики, как пол, возраст и количество прошлых арестов, и гадали, будет ли каждый человек арестован за другое преступление в течение двух лет. После каждого раунда добровольцам говорили, правильно ли они угадали. Как видно в 2020 году, люди соперничали с эффективностью «COMPAS»: точность примерно в 65 процентах случаев.
Но в несколько иной версии этого соревнования между человеком и компьютером команда Гоэла обнаружила, что «COMPAS» имеет преимущество над людьми, которые не получают обратной связи. В этом эксперименте участники должны были предсказать, кто из 50 преступников будет арестован за насильственные преступления, а не просто за любое преступление.
С обратной связью люди выполнили эту задачу с 83-процентной точностью-близкой к 89 процентам «COMPAS». Но без обратной связи человеческая точность упала примерно до 60 процентов. Это потому, что люди переоценили риск совершения насильственных преступлений, несмотря на то, что им сказали, что только 11 процентов преступников в наборе данных попали в этот лагерь, говорят исследователи. В эксперименте не изучалось, способствовали ли этой тенденции такие факторы, как расовые или экономические предубеждения.
В третьей вариации эксперимента алгоритмы оценки риска показали превосходство, когда были даны более подробные криминальные профили. На этот раз добровольцы столкнулись с инструментом оценки риска, получившим название «LSI-R». Это программное обеспечение может учитывать на 10 факторов риска больше, чем «COMPAS», включая злоупотребление психоактивными веществами, уровень образования и статус занятости. «LSI-R» и человеческие добровольцы оценивали преступников по шкале от очень маловероятного до очень вероятного повторного преступления.
Когда были показаны криминальные профили, включающие только несколько факторов риска, добровольцы выполняли работу наравне с «LSI-R».
Отсюда следует, что на данный момент ИИ может заменить людей в теории вероятности повторного преступления заключённым. В скором времени их точность будет больше 90 процентов.