Добавить в корзинуПозвонить
Найти в Дзене
Умная безопасность

"ИИ-судьи" уже решают отправить в тюрьму или освободить под залог, но технологические гиганты возражают

Крупнейшние технологические компании выступили против использования искусственного интеллекта правоохранительными органами и судебными инстанциями для автоматизации решений, по вопросам заключения людей в тюрьму и досрочного освобождения, пишет издание "Bloomberg". В опубликованном докладе технологического партнерства в целях развития технологий искусственного интеллекта, в которое входят Facebook, Microsoft, Alphabet, Google и DeepMind, Amazon, Apple и IBM, а также отраслевые исследователи и ученые, сделано заявление о том, что алгоритмы искусственного интеллекта не должны использоваться правоохранительными органами при принятии решений о заключении людей в тюрьму. Партнерство указывает, что существующие алгоритмы ИИ, созданные с целью помочь полиции и судьям определить, какой человек может быть освобожден под залог или кто может рассчитывать на условно-досрочное (условное) освобождение, а также ИИ, которые помогают судьям принимать решения при вынесении приговора, потенциально предвз
Изображение: City Press
Изображение: City Press

Крупнейшние технологические компании выступили против использования искусственного интеллекта правоохранительными органами и судебными инстанциями для автоматизации решений, по вопросам заключения людей в тюрьму и досрочного освобождения, пишет издание "Bloomberg".

В опубликованном докладе технологического партнерства в целях развития технологий искусственного интеллекта, в которое входят Facebook, Microsoft, Alphabet, Google и DeepMind, Amazon, Apple и IBM, а также отраслевые исследователи и ученые, сделано заявление о том, что алгоритмы искусственного интеллекта не должны использоваться правоохранительными органами при принятии решений о заключении людей в тюрьму. Партнерство указывает, что существующие алгоритмы ИИ, созданные с целью помочь полиции и судьям определить, какой человек может быть освобожден под залог или кто может рассчитывать на условно-досрочное (условное) освобождение, а также ИИ, которые помогают судьям принимать решения при вынесении приговора, потенциально предвзяты, непрозрачны и могут вовсе не работать.

"ИИ дискриминирующий": новое исследование об этике искусственного интеллекта". Читать

Партнерство заявляет, что выступает против использования не обученных и не проработанных должным образом систем, которые пытаются "предсказать" вероятность того, что обвиняемый или заключенный может совершить повторное правонарушение в случае освобождения.

Несмотря на обеспокоенность по поводу справедливости и эффективности ИИ-алгоритмов, разработанных для того, чтобы помочь правоохранительным органам принимать решения о заключении под стражу, Партнерство обнаружило, что такие системы уже широко используются в США и внедрены в других странах. Одним из наиболее известных случаев является алгоритм "COMPAS" ("профилирование для управления правонарушителями для альтернативных санкций") от "Equivant". В 2016 году расследование "ProPublica" показало, что этот алгоритм предвзято (вдвое чаще) "маркирует" чернокожих обвиняемых в качестве лиц с более высоком риском для освобождения. "Equivant" оспаривал выводы "ProPublica", но последующие академические исследования показали, что алгоритм работает не лучше, чем оценки неподготовленных людей или гораздо менее сложный набор простых алгоритмов. Однако алгоритм продолжает использоваться во многих учреждениях.

В докладе Партнерства подчеркивается, что во многих местах, где системы ИИ использовались для оценки рисков, имело место игнорирование судьями и судебным исполнителями или коллегиями по условно-досрочному освобождению того, что выводам таких систем должны быть сопоставлены и другие сведения. И одни лишь рекомендации ИИ ложились в основу решений о том, отправлять кого-то в тюрьму или оставлять на свободе. В докладе демонстрируется "на статистических и технических данных, насколько мы далеки от готовности развернуть эти инструменты ответственно", - сказал Логан Коепке, старший аналитик "Upturn", организации-участника Партнерства по развитию ИИ.

Крупные технологические компании все чаще ставят под сомнение использование таких прогностических алгоритмов, хотя они сами помогли внедрить базовые методы и использование инструментов на основе ИИ в качестве основного стимула для принятия своих решений для облачных вычислений.

"Гугл-Свидетель": как сервисы смартфонов служат расследованию преступлений". Читать

В прошлом году компания Microsoft призвала к более строгим законам об использовании технологии распознавания лиц на фоне опасений, что такое программное обеспечение может использоваться полицией и правительствами таким образом, чтобы нарушать гражданские свободы. Позже к нему присоединилась Amazon, которая заявила, что также обеспокоена использованием предлагаемой технологии.

Отметим, однако, что ИИ не может быть "плохим" сам по себе. Могут быть некорректные данные, на основе которых его обучили. Могут быть недоработанные или искаженные алгоритмы прогнозов. И, помимо названных решений, существует достаточное число примеров, когда ИИ-алгоритмы работают эффективно для целей правоохранительных органов, как, например, этот:

"ИИ "на службе": как алгоритм ловит "серийных" грабителей". Читать

Понравился пост? Поставьте 👍 или поделитесь им в социальной сети, чтобы мы могли рассказать ещё больше о новых технологиях.
Подпишитесь на наш канал "Умная безопасность" ( @smartsafecity ) в Телеграм , чтобы узнать больше новостей о новых технологиях