Найти тему
Dreamscometrue

Что не так с внедрением искусственого интеллекта в США. Расизм против технологий.

Оглавление

Это источник американского исследования
Это источник американского исследования

Почитав о внедрении искусственного интеллекта в Америке, нами было обнаружено, что оказывается, он запрещен, так как он считается расистским и не толерантным.

Десятилетия назад, представляя себе практическое использование искусственного интеллекта, писатели-фантасты воображали автономные цифровые разумы, которые могли бы служить человечеству.

И для многих аспектов жизни искусственный интеллект выполняет свои обещания. Пока мы говорим, искусственный интеллект ищет доказательства существования жизни на Марсе. Ученые используют ИИ, чтобы попытаться разработать более точные и быстрые способы предсказания погоды.

Но когда дело доходит до охраны правопорядка, реальное положение дел гораздо менее оптимистично.

Мы посмотрели прядок внедрения искусственного интеллекта в Американской полиции. И знаете что? Оказывается, его не захотели внедрять из-за того, что у него много проблем и вот, что США относит к проблемам:

Программы, претендующие на использование ИИ для охраны порядка, лишь подтверждают, оправдывают и узаконивают мнения и действия, уже предпринимаемые полицейскими департаментами.

ИИ представляет собой две проблемы: "вымывание технологий" и классическую петлю обратной связи. Технологическое промывание - это процесс, с помощью которого сторонники результатов могут защищать эти результаты как беспристрастные, поскольку они были получены с помощью "математики".

А петля обратной связи - это то, как эта математика продолжает увековечивать исторически укоренившиеся вредные результаты. "Проблема использования алгоритмов, основанных на машинном обучении, заключается в том, что если эти автоматизированные системы снабжать примерами предвзятого правосудия, то в конечном итоге они увековечат эти же предрассудки", - как отмечает один философ науки.

Слишком часто искусственный интеллект в полицейской деятельности получает данные, собранные полицией, и поэтому может предсказывать преступность только на основе данных из районов, которые полиция уже охраняет. Но данные о преступности, как известно, неточны, поэтому полицейский ИИ не только не замечает преступлений, происходящих в других районах, но и укрепляет идею о том, что районы, которые они уже чрезмерно патрулируют, - это именно те районы, в которые полиции правильно направлять патрули и наблюдение.

То, как технологии ИИ стирают несправедливые данные, созданные несправедливой системой уголовного правосудия, становится все более очевидным.

Расследование, проведенное Gizmodo и The Markup, показало, что программное обеспечение, благодаря которому PredPol, теперь называемое Geolitica, появилось на карте, непропорционально предсказывает, что преступления будут совершаться в районах, где живут представители рабочего класса, цветные люди и, в частности, чернокожие.

ВОТ ТУТ НАЧИНАЕТСЯ САМОЕ ИНТЕРЕСНОЕ

Эти алгоритмы увековечивают расовое неравенство в системе уголовного правосудия.

Gizmodo сообщает: "По 11 отделам, предоставившим данные об арестах, мы обнаружили, что количество арестов в предсказанных районах оставалось одинаковым независимо от того, предсказывал ли PredPol преступления в тот день или нет. Другими словами, мы не обнаружили сильной корреляции между арестами и прогнозами". Именно поэтому не следует использовать так называемую предиктивную полицию или любые схемы работы полиции, основанные на данных. Полиция патрулирует районы, населенные преимущественно цветным населением - это означает, что именно в этих местах они производят аресты и выписывают штрафы. Алгоритм учитывает эти аресты и определяет, что эти районы, скорее всего, станут свидетелями преступлений в будущем, оправдывая тем самым сильное присутствие полиции в черных кварталах. И так цикл продолжается снова.

Подобное может происходить и с другими технологиями, основанными на искусственном интеллекте, например, с акустическим распознаванием выстрелов, которое может посылать в полицию ложноположительные сигналы, свидетельствующие о наличии выстрелов.

В этом году мы также узнали, что, по крайней мере, одна так называемая компания искусственного интеллекта, получившая миллионы долларов и несметное количество правительственных данных от штата Юта, на самом деле не смогла выполнить свои обещания помочь направить правоохранительные органы и государственные службы в проблемные районы.

Именно поэтому ряд городов, включая Санта-Круз и Новый Орлеан, запретили правительству использовать программы предиктивной полиции. Как сказал в свое время мэр Санта-Круза, "если у нас есть расовая предвзятость в работе полиции, то это означает, что данные, которые попадают в эти алгоритмы, уже изначально предвзяты и будут иметь предвзятые результаты, поэтому нет никакого смысла пытаться использовать технологию, если вероятность того, что она негативно повлияет на цветные сообщества, очевидна".

ТО ЕСТЬ НЕ ТО, ЧТОБЫ ТЕМНОКОЖИЕ СОВЕРШАЛИ БОЛЬШЕ ПРЕСТУПЛЕНИЙ, ЭТО ПРОСТО ПРЕДВЗЯТОСТЬ НАЗЫВАЕТСЯ

И в заключение они выдают следующую фразу:

В следующем году борьба против безответственного использования полицией искусственного интеллекта и машинного обучения продолжится. EFF продолжит поддерживать местные власти и власти штатов в их борьбе против так называемого предиктивного или управляемого данными полицейского контроля.

ЗАКЛЮЧИМ

Зачем развиваться, если технологии доказывают, что темнокожие больше грабят людей, но мы не будем их слушать, потому что это расизм!

Коротко о развитии технологий в Америке!

-2