В 2002 году группа экономистов изучила влияние автоматизированных алгоритмов андеррайтинга в отрасли ипотечного кредитования. Их первичные выводы заключались в том, что системы автоматизированного андеррайтинга более точно прогнозируют дефолт, чем делают ручные андеррайтеры и что эта повышенная точность приводит к более высоким ставкам одобрения заемщиков, особенно для недовольных заявителей. Догадка подтвердилась, алгоритмическая система фактически принесла пользу этому сегменту потребителей.
В контексте досудебных слушаний в Нью-Йорке группа ученых и экономистов определила, что алгоритмы имеют потенциал для принятия значительно более справедливых решений, чем судьи, которые в настоящее время принимают решения об освобождении под залог. Они также обнаружили, что в их модели « все категории преступлений, в том числе насильственные преступления, показывают сокращения [в условиях лишения свободы]; и эти достижения могут быть достигнуты при одновременном снижении расовых различий ».
Исследователи в лице профессоров финансов выяснили, что компании будут лучше работать с алгоритмически подобранными членами совета директоров.
В каждом из этих тематических исследований ученые-исследователи делали то, что звучит как тревожная вещь: они обучили свои алгоритмы прошлым данным, которые, безусловно, предвзяты к историческим предрассудкам. Так что здесь происходит? Алгоритмы могут уменьшать предвзятость, когда многие комментаторы говорят, что алгоритмы должны делать обратное.
Люди, которых они заменяют, значительно более предвзяты . Но люди не могут быть так уж плохи, не так ли? Да, мы можем быть предвзятыми, но, безусловно, есть некоторые показатели эффективности, на которых мы являемся хорошими лицами, принимающими решения. К сожалению, десятилетия психологических исследований в области суждения и принятия решений снова и снова демонстрируют, что люди являются очень плохими судьями качества в самых разных контекстах.
Критики алгоритмического принятия решений породили новую волну исследований в машинном обучении, которая более серьезно относится к социальным и политическим последствиям алгоритмов. Появляются новые методы, возникающие в области статистики и машинного обучения, которые разработаны специально для решения проблем, связанных с алгоритмической дискриминацией. Ежегодно проводится научная конференция, на которой исследователи не только обсуждают этические и социальные проблемы машинного обучения, но и представляют новые модели и методы для обеспечения того, что алгоритмы оказывают положительное влияние на общество. Эта работа, вероятно, станет еще более важной, поскольку более прозрачные алгоритмы, такие как глубокое обучение, станут более распространенными.