Алгоритм, который тестировался Amazon как инструмент набора персонала, оказался сексистским. Искусственный интеллект отдавал предпочтение сотрудникам-мужчинам и теперь от него откажутся.
Иcкусcтвенный интеллект «напичкали» данными, предоставленными за 10 лет кандидатами-мужчинами. Поэтому система «научилась» отдавать предпочтение именно сильному полу. Самообучающийся алгоритм разрабатывался с 2014 года пятью членами команды разработчиков, которые попросили не называть их имен.
«Руководство хотело, чтобы вы давали алгоритму сто резюме, из которых он выдаст пятерку лучших, которых можно пригласить на работу», – рассказал один из разработчиков.
К 2015 году стало ясно, что искусственный интеллект не отличается гендерной нейтральностью, потому что большинство резюме поступало именно от мужчин. Система отказывалась от резюме, в котором фигурировало слово «женщины». Программу пытались исправить, но стало понятно, что полагаться на нее нельзя.
Проект отложили. Но некоторое время рекрутеры все же использовали искусственный интеллект при найме новых сотрудников но никогда не полагались на него полностью. Представители Amazon говорят, что сейчас соотношение мужчин и женщин у них в компании составляет примерно 60 к 40 в пользу мужчин.
Около 55 процентов менеджеров по персоналу в США заявили, что через пять лет искусственный интеллект будет играть решающую роль в найме сотрудников. Но пока существуют сомнения насчет надежности алгоритмов.
В мае 2017 года инцидент произошел с искусственным интеллектом, который использовался в американском суде. Программа предвзято относилась к чернокожим людям. Дело в том, что программа обучалась на данных об арестах и в большинстве случаев задержанные были афроамериканцами.
Смотрите также: Ученые обвинили Google Translate в сексизме и доказали это
Понравилось? Подписывайтесь на канал БигПикчи в Яндекс Дзен!