Найти тему
Development lab

HR-алгоритмы и человечность. ATS.

Как алгоритмы, обученные на существующих данных, могут усиливать предубеждения при отборе кандидатов
Как алгоритмы, обученные на существующих данных, могут усиливать предубеждения при отборе кандидатов

Как считаешь, мир становится лучше с каждым шагом технологического прогресса, или нет? В целом, наверное, да. Но что, если те самые алгоритмы, которые призваны облегчить процессы, например, найма, на самом деле могут стать настоящими катализаторами разного рода проблем?

Да, именно так: искусственный интеллект (ИИ) и автоматизированные системы отбора кандидатов — могут способствовать предвзятости, усиливая гендерные, возрастные и другие предубеждения.

В этой статье поговорим о Applicant Tracking System (система отслеживания кандидатов). В мире их сотни, в России уже десяток наберется.

Алгоритмы — это великолепно! Да?

Алгоритмы, на первый взгляд, прекрасны: они обещают убрать «человеческий фактор» с его пристрастиями и эмоциями. Компании массово внедряют ИИ для отбора сотрудников, ведь это дешево, быстро и вроде бы эффективно.

Но вот тут-то и начинается подвох: алгоритмы обучаются на данных, которые уже существуют. А что это значит? Алгоритм берет пример с прошлого, как ребенок, смотрящий на своих родителей. И если эти «родители» с завышенными ожиданиями, предубеждениями, то результат будет соответствующим.

Гендерные перекосы: Саша и Маша

Давайте разберем вначале самый простой пример — гендерная составляющая. Алгоритм обучался на данных компании, где за последние десять лет на позиции программистов нанимали в основном мужчин. Как думаете, кого этот алгоритм будет выбирать в первую очередь? Конечно, мужчин! Ведь для него это «идеальный кандидат».

Маша с отличным резюме будет автоматически отклонена, потому что ее имя звучит не так «технически», как имя Саши. Не потому, что она хуже. А потому что алгоритм «не привык» видеть женщин на этих позициях.

Зрелость и молодость

Как насчет возраста? Люди постарше сталкиваются с эйджизмом на каждом углу, и алгоритмы тут, увы, не спасают. Пример: алгоритм, оценивающий резюме на основании прошлых успешных кандидатов, может увидеть, что большинство из них — это молодые специалисты. Он не будет даже пытаться проанализировать, что люди старшего возраста могли бы принести больше опыта и стабильности. Для него цифра в графе «возраст» становится фактическим фильтром.

Ловушка данных: предвзятость на уровне истории

Алгоритмы не могут «думать», как человек. Они анализируют цифры. Если данные, на которых они обучены, изначально содержат предвзятость — будь то на основании расы, пола, возраста или даже географического положения, — алгоритм это интерпретирует как норму. Это называется «data bias», или предвзятость данных.

Представь: компания, которая исторически нанимала людей из определенного социального круга, запускает алгоритм для найма. И этот алгоритм продолжает поддерживать этот шаблон, даже если среди соискателей есть кто-то с гораздо лучшими навыками. Предвзятость? Ещё какая!
А как быть с нейросетями?

Нейросети — это, конечно, круто. Но они настолько хороши, насколько хороши данные, на которых их обучили. Если взять предвзятые данные и заставить их решать задачу подбора кандидатов, что получим? Ещё больше предвзятости. Л – логика.

В 2018 году Amazon был вынужден закрыть свою систему ИИ для отбора кандидатов, потому что она систематически дискриминировала женщин. Эта высокотехнологичная система, созданная одной из ведущих IT-компаний мира, посчитала женщин неподходящими для технических должностей, просто потому что в прошлом компания нанимала в основном мужчин. Да-да, именно так.

Что делать? Борьба с машинной предвзятостью

Так что, отказаться от алгоритмов? Нет, нужно обучать и развивать инструмент дальше. Алгоритмы не зло сами по себе. Проблема в данных и подходах к их обучению. Вот несколько шагов, которые помогут бороться с предвзятостью:

1. Контроль и корректировка данных. Важно внимательно подходить к тем данным, на которых обучают алгоритмы. Если они уже содержат предвзятость, нужно очищать и исправлять их.

2. Регулярные проверки. Компании должны проводить аудиты своих алгоритмов, чтобы выявлять потенциальные перекосы в принятии решений.

3. Человеческий фактор. Не стоит полностью доверять алгоритмам. Финальное решение о найме должен принимать человек, способный оценить нюансы, которые машине недоступны.

4. Разнообразие команд. Компании должны стремиться к тому, чтобы разнообразие и инклюзивность были не просто лозунгами, а реальностью. Это будет влиять на набор данных, который используется для обучения алгоритмов.

Алгоритм или человечность?

Технологии могут сильно облегчить процесс найма, но важно помнить: они никогда не заменят человеческий опыт и интуицию. Окончательное решение должно быть за человеком, а не за бездушной машиной, неспособной оценить контекст или потенциал. Ведь в конечном итоге компании нанимают людей, а не статистику.

Алгоритмы — это инструмент, а не решение всех проблем. Они могут быть полезны, но только при условии, что их правильно используют и контролируют. Иначе они рискуют превратиться в оружие массовой дискриминации.

#Алгоритмы #HRтехнологии #Предвзятость #ИскусственныйИнтеллект #Эйджизм #Нейросети