Добавить в корзинуПозвонить
Найти в Дзене

ИИ будет выявлять потенциальных убийц: в Британии разгорается скандал

ИИ будет выявлять потенциальных убийц: в Британии разгорается скандал В
Великобритании разрабатывается проект, который использует алгоритмы искусственного интеллекта для оценки риска совершения насильственных преступлений. Как пишет Guardian, инициатива исходит от
Министерства юстиции и носит исследовательский характер. Но правозащитники уже бьют тревогу.
Изначально инициатива называлась «Проект прогнозирования убийств», однако после начала работы была переименована в более нейтральное название — «Обмен данными для
улучшения оценки рисков». Несмотря на изменение формулировки, суть осталась прежней: ИИ должен анализировать большие массивы данных, чтобы предсказывать, кто из
ранее осужденных может совершить убийство в будущем.
По информации Statewatch — британской организации, отслеживающей деятельность государства в сфере прав и свобод — в проекте задействованы данные тысяч
людей. Причем в массивах фигурируют не только осужденные, но и жертвы насилия. Используются такие

ИИ будет выявлять потенциальных убийц: в Британии разгорается скандал В
Великобритании разрабатывается проект, который использует алгоритмы искусственного интеллекта для оценки риска совершения насильственных преступлений. Как пишет Guardian, инициатива исходит от
Министерства юстиции и носит исследовательский характер. Но правозащитники уже бьют тревогу.

Изначально инициатива называлась «Проект прогнозирования убийств», однако после начала работы была переименована в более нейтральное название — «
Обмен данными для
улучшения оценки рисков
». Несмотря на изменение формулировки, суть осталась прежней: ИИ должен анализировать большие массивы данных, чтобы предсказывать, кто из
ранее осужденных может совершить убийство в будущем.

По информации Statewatch — британской организации, отслеживающей деятельность государства в сфере прав и свобод — в проекте задействованы данные тысяч
людей. Причем в массивах фигурируют не только осужденные, но и жертвы насилия. Используются такие параметры, как имя, дата рождения, пол,
этническая принадлежность и даже уникальные идентификаторы полиции. Источники данных — Служба пробации, полиция Большого Манчестера и другие правоохранительные структуры.

По замыслу разработчиков, программа должна помочь службе пробации эффективнее управлять рисками, то есть отслеживать, какие из поднадзорных лиц могут представлять
опасность для общества. Однако критики утверждают: такой подход открывает путь к «
научной стигматизации» и может привести к тому, что человека
начнут считать опасным на основании формального набора характеристик.

Statewatch указывает, что в системе могут оказаться люди, которые никогда не нарушали закон, но фигурировали в делах о домашнем насилии
как жертвы. Таким образом, сбор и обработка их персональных данных ставится под вопрос с точки зрения этики и закона.

Отдельный источник подчеркивает, что проект был начат при поддержке канцелярии бывшего премьер-министра Риши Сунака. Это обстоятельство также усилило критику в
адрес властей, особенно на фоне обострения дебатов вокруг приватности, цифровых прав и вмешательства государства в личную жизнь.

Министерство юстиции утверждает, что ИИ используется исключительно в исследовательских целях и не повлияет напрямую на судебные решения или надзорные меры.
Тем не менее, общественные организации требуют большей прозрачности: кто разрабатывает алгоритмы, как они обучаются и на каких принципах работают.

«
Проект, в котором ИИ судит о людях на основе их прошлого и пола, — это уже не просто наука, а
социальный эксперимент
», — заявил представитель организации Liberty, борющейся за права человека в Великобритании.

На фоне этого растёт обеспокоенность тем, как ИИ будет внедряться в государственные практики и не приведёт ли это к непредсказуемым последствиям для миллионов граждан.

Фото: Соцсети.

ИЗНАНКА — другая сторона событий. Следите за обновлениями в наших соцсетях и присылайте свои материалы в редакцию.