Найти в Дзене
Андрей Воробьев

Системы распознавания лиц склонны к расовой предвзятости

К такому выводу пришёл Национальный институт стандартов и технологии, сообщает Reuters. В ходе проверки выяснилось, что системы распознавания лиц некорректно идентифицируют темнокожих и азиатов от десяти до ста раз чаще, чем белых. Это значит, что при применении технологии в аэропортах, на таможнях и улицах темнокожих людей и азиатов могут несправедливо задерживать полицейские. Также исследователи заметили уклон в сторону темнокожих женщин, которые больше рискуют быть несправедливо задержанными, чем белые женщины только потому, что система не умеет точно распознавать их лица. Кого проверяли? Исследователи протестировали 189 систем распознавания лиц от 99 различных разработчиков со всего мира, правда, в исследовании не приняла участия компания Amazon, которая не предоставила свой алгоритм. Китайский стартап SenseTime, оцененный в $7,5 млрд, показал «высокий уровень ложных совпадений для всех сравнений», немножко качественнее показала себя китайская система Yitu, однако и там ученые

К такому выводу пришёл Национальный институт стандартов и технологии, сообщает Reuters. В ходе проверки выяснилось, что системы распознавания лиц некорректно идентифицируют темнокожих и азиатов от десяти до ста раз чаще, чем белых. Это значит, что при применении технологии в аэропортах, на таможнях и улицах темнокожих людей и азиатов могут несправедливо задерживать полицейские.

Также исследователи заметили уклон в сторону темнокожих женщин, которые больше рискуют быть несправедливо задержанными, чем белые женщины только потому, что система не умеет точно распознавать их лица.

Кого проверяли?

Исследователи протестировали 189 систем распознавания лиц от 99 различных разработчиков со всего мира, правда, в исследовании не приняла участия компания Amazon, которая не предоставила свой алгоритм. Китайский стартап SenseTime, оцененный в $7,5 млрд, показал «высокий уровень ложных совпадений для всех сравнений», немножко качественнее показала себя китайская система Yitu, однако и там ученые заметили расовый уклон.

Проанализировав распознавание лиц от Microsoft, исследователи выяснили, что алгоритм в десять раз чаще некорректно срабатывает в отношении темнокожих женщин, чем темнокожих мужчин. Microsoft заявила, что рассматривает отчет и даст комментарии позже.