К такому выводу пришёл Национальный институт стандартов и технологии, сообщает Reuters. В ходе проверки выяснилось, что системы распознавания лиц некорректно идентифицируют темнокожих и азиатов от десяти до ста раз чаще, чем белых. Это значит, что при применении технологии в аэропортах, на таможнях и улицах темнокожих людей и азиатов могут несправедливо задерживать полицейские. Также исследователи заметили уклон в сторону темнокожих женщин, которые больше рискуют быть несправедливо задержанными, чем белые женщины только потому, что система не умеет точно распознавать их лица. Кого проверяли? Исследователи протестировали 189 систем распознавания лиц от 99 различных разработчиков со всего мира, правда, в исследовании не приняла участия компания Amazon, которая не предоставила свой алгоритм. Китайский стартап SenseTime, оцененный в $7,5 млрд, показал «высокий уровень ложных совпадений для всех сравнений», немножко качественнее показала себя китайская система Yitu, однако и там ученые
Системы распознавания лиц склонны к расовой предвзятости
22 декабря 201922 дек 2019
13
1 мин