разнообразия в индустрии искусственного интеллекта увековечивает предвзятость
В докладе говорится, что для «белого мужского поля» наступил момент расплаты за дискриминационную систему.
Согласно новым данным, опубликованным исследовательским центром Нью-Йоркского университета, отсутствие разнообразия в области искусственного интеллекта достигло «момента расплаты». «Бедствие разнообразия» привело к ошибочным системам, которые увековечивают гендерные и расовые предрассудки, показывает исследование Института AI Now.
В докладе говорится, что область ИИ, которая в основном белая и мужская, подвержена риску повторения или увековечивания исторических предубеждений и дисбаланса власти. Приведенные примеры включают службы распознавания изображений, делающие оскорбительные классификации меньшинств, чат-боты, использующие ненавистнические высказывания, и технологии Amazon, не распознающие пользователей с более темным цветом кожи. В докладе отмечается, что смещение систем, созданных индустрией искусственного интеллекта, может быть во многом связано с отсутствием разнообразия в самой области.
«Уклон глубоко в коде»: проблема с «этикой» ИИ в Силиконовой долине.
«Индустрия должна понять серьезность ситуации и признать, что нынешние методы не смогли решить эти проблемы», - заявила Кейт Кроуфорд, автор доклада. «Использование систем искусственного интеллекта для классификации, выявления и прогнозирования расы и пола нуждается в срочной переоценке».
В докладе говорится, что более 80% профессоров ИИ - мужчины, и только 15% исследователей ИИ в Facebook и 10% исследователей ИИ в Google - женщины. Структура поля искусственного интеллекта отражает «более серьезную проблему в области компьютерных наук, областей знаний и, в более широком смысле, общества в целом», - сказала Данаэ Метакса, кандидат наук и исследователь из Стэнфорда, занимающаяся вопросами Интернета и демократии. По данным Национального совета по науке, в 2015 году женщины составляли только 24% в области компьютерных и информационных наук. Только 2,5% рабочей силы Google - черные, в то время как Facebook и Microsoft - по 4%, и мало данных о трансработниках или других гендерных меньшинствах в области искусственного интеллекта.
«Актуальность этой проблемы возрастает по мере того, как ИИ становится все более интегрированным в общество», - сказал Метакса. «По сути, отсутствие разнообразия в искусственном интеллекте концентрирует все большее количество власти и капитала в руках избранной группы людей».
Венчурное финансирование для стартапов ИИ достигло рекордного уровня в 2018 году, увеличившись на 72% по сравнению с 2017 годом до $ 9,33 млрд. Активные стартапы ИИ в США увеличились на 113% с 2015 по 2018 годы. По мере того, как в ИИ вкладывается все больше денег и ресурсов, компании имеют возможность противостоять кризису, который тормозит не приносящие прибыли работы по увеличению разнообразия в области ИИ, говорит Тесс Познер, генеральный директор AI4ALL. Это отсутствие разнообразия должно быть устранено до того, как ИИ достигнет «переломного момента».
«С каждым днем становится все труднее решить проблему», - сказала она. «Прямо сейчас мы находимся в захватывающем моменте, когда мы можем изменить ситуацию, прежде чем мы увидим, насколько сложнее это может стать позже».
Отчет, опубликованный во вторник, предостерегает от решения проблемы разнообразия в технологической отрасли, решая проблему «трубопровода», или в одиночных случаях регулируя состав тех, кто принимается на работу. В настоящее время мужчины составляют 71% от общего числа претендентов на работу по искусственному интеллекту в США, согласно Индексу искусственного интеллекта 2018 года, который публикуется ежегодно. Институт ИИ предложил дополнительные меры, включая публичную публикацию уровней компенсации для работников, распространение отчетов о притеснениях и дискриминации, а также изменение практики найма для увеличения числа недостаточно представленных групп на всех уровнях.
Google распустил совет по этике искусственного интеллекта, предназначенный для наблюдения за такими проблемами, всего через неделю после его объявления в марте. Внешний консультативный совет по передовым технологиям (ATEAC) вызвал негативную реакцию внутри компании и за ее пределами после того, как он назначил защитника анти-ЛГБТ Кей Коулз Джеймс.
Для решения проблем разнообразия в ИИ могут потребоваться дополнительные усилия по повышению прозрачности того, как строятся алгоритмы и как они работают. В этом месяце сенаторы США Кори Букер и Рон Уайден представили закон об алгоритмической ответственности, законопроект, который требует, чтобы алгоритмы, используемые компаниями, которые получают более 50 миллионов долларов в год, или информация о более чем 1 миллиона пользователей оценивались на предмет предубеждений.
«Суть проблемы в том, будут ли рыночные силы достаточными для того, чтобы это исправить», - сказал Познер. «Для решения этой проблемы потребуются усилия на всех этапах ИИ и изменения на культурном и процедурном уровнях.