Предугадывать преступления не получается. По крайней мере, он не работает с алгоритмами искусственного интеллекта, которые собиралась использовать британская полиция.
«Самое серьезное насилие» (MSV) — это программа, которая была разработана, чтобы помочь британской полиции предсказать, кто может совершить преступление. Если это звучит как идея из мрачного научно-фантастического фильма, то — да — она уже использовалась (в «Minority Report» с Томом Крузом).
Алгоритм машинного обучения присваивал людям из полицейских записей (но еще не наказанных) баллы, чтобы определить вероятность того, что человек совершит преступление с использованием огнестрельного оружия или ножа в течение следующих двух лет. Для обучения алгоритма использовались данные двух разных полицейских управлений Западного Мидлендса и Западного Йоркшира для 2,4 и 1,1 миллиона человек соответственно.
Это было частью решения British National Data Analytics Solution, на которое министерство внутренних дел, эквивалент министерства внутренних дел, потратило целых 10 миллионов фунтов стерлингов за последние два года. Анализ данных с использованием алгоритмов машинного обучения должен был облегчить жизнь чиновникам (и полиции) в Англии и Уэльсе. Предполагалось, что полицейская система MSV выберет семь из десяти преступников.
Хорошее плохое начало
Первоначальные данные были многообещающими — было выявлено более 20 показателей, помогающих предсказать риск, включая возраст, время с момента первого правонарушения, отношения в полицейских записях и степень тяжести совершенных преступлений. Казалось бы, делегирование анализа таких данных от следователей машине будет эффективным и избавит их от нагрузки.
Однако полицейская система MSV официально так и не запущена, так как во время тестирования оказалась бесполезной. Вместо того, чтобы предсказывать преступников особо опасных преступлений с (оценочной) вероятностью около 70 процентов, он совершал нападения примерно в 20 процентах случаев. Другими словами, восемь из десяти он ошибался.
Как выяснилось, алгоритм содержал ошибки в коде, сообщает портал «Wired» . Согласно документам, опубликованным Комитетом по этике полиции Уэст-Мидлендса, уже на начальном этапе проекта выяснилось, что в коде есть ошибка, которая мешает корректному анализу данных (однако, какая из них не была раскрыта).
Тем не менее, даже если программная ошибка была исправлена, эксперты указывают на ряд этических соображений, для решения которых полиции не следует использовать такую систему — уже известно, что алгоритмы легко воспроизводят человеческие расовые и экономические предрассудки и часто предвзято относятся к женщинам. Избавиться от таких «скрытых предрассудков» в данных сложно , ведь даже обработка данных о местоположении может означать, что на самом деле у жителей района преобладает цвет кожи, а не место проживания.
Есть еще одна фундаментальная причина. Как объясняет Мелисса Гамильтон, преподаватель права в Университете Суррея, предметом исследования которой является использование программного обеспечения для анализа полицейских рисков, «редкие события гораздо труднее предсказать, чем частые». Преступлений, связанных с огнестрельным оружием или опасными инструментами, относительно мало по сравнению с другими преступлениями, что означает мало данных для алгоритма. В свою очередь, большинство самых жестоких преступлений (убийства, побои и ограбления) совершаются без таких инструментов ( данные BBC ).
Системы, основанные на анализе машинных данных, не являются успешными в Великобритании. Недавно суд постановил, что использование полицией технологии распознавания лиц является незаконным. Министерство внутренних дел также недавно отказалось от использования алгоритмов при оценке визового риска — они оказались предвзятыми на расовой почве .
Математики полагаются на этику
В июне более 1400 математиков опубликовали открытое письмо в Уведомления Американского математического общества, в котором призвали прекратить работу над алгоритмами прогнозирования для использования судами и полицией. Письмо, в котором говорилось об отсутствии доказательств эффективности таких систем машинного обучения, было написано после громкого убийства чернокожего Джорджа Флойда полицейским Миннеаполиса и последовавших за ним беспорядков против полицейского расизма.
Есть исследования, показывающие, что некоторые преступления, такие как употребление наркотиков, столь же распространены среди белых людей, как и среди чернокожих. Однако, когда дело доходит до утверждений о таких преступлениях, задержаниях и приговорах, существует сильная расовая предвзятость.
В Wired, с другой стороны, Кристин Риник из Университета Винчестера, одна из руководителей Центра права на информацию, комментирует алгоритм полиции: «То, что что-то можно сделать с помощью вычислений, не означает, что это лучший способ или что это должно быть сделано именно так. Поэтому я думаю, что было бы полезно, если бы существовали процедуры, в которых эти шаги ставятся под сомнение»
Источник наш сайт techno-wave.ru