Найти в Дзене
Data Lab

Предвзятость HR алгоритмов🤖

Почему ИИ в подборе почти всегда наследует старые ошибки Когда говорят про ИИ в подборе, обычно звучит одна и та же мысль: наконец-то уйдёт человеческий фактор при отборе персонала и можно автоматизировать этот процесс. Мол, алгоритм беспристрастен, он просто выбирает лучших кандидатов для той или иной должности. Так-то на бумаге это реально выглядит красиво, но вот на практике это почти никогда так не срабатывает. И причина очень простая и неприятная: модель учится не на будущем, а на прошлом. А прошлое в подборе персонала редко бывает нейтральным. Допустим, если последние 3 года на технические роли в компании чаще брали мужчин из одного региона и примерно одного возраста, то именно этот паттерн и будет считаться «успешным» для модели. И это не потому что модель плохая, а потому что других примеров ей не показали. В итоге общая точность может быть под сотку 📈 - графики ровные, метрика высокая, все довольны. А вот как только попробовать посмотреть глубже, то тут и начинаются страннос
Оглавление

Почему ИИ в подборе почти всегда наследует старые ошибки

Когда говорят про ИИ в подборе, обычно звучит одна и та же мысль: наконец-то уйдёт человеческий фактор при отборе персонала и можно автоматизировать этот процесс. Мол, алгоритм беспристрастен, он просто выбирает лучших кандидатов для той или иной должности.

Так-то на бумаге это реально выглядит красиво, но вот на практике это почти никогда так не срабатывает.

И причина очень простая и неприятная: модель учится не на будущем, а на прошлом. А прошлое в подборе персонала редко бывает нейтральным. Допустим, если последние 3 года на технические роли в компании чаще брали мужчин из одного региона и примерно одного возраста, то именно этот паттерн и будет считаться «успешным» для модели. И это не потому что модель плохая, а потому что других примеров ей не показали.

В итоге общая точность может быть под сотку 📈 - графики ровные, метрика высокая, все довольны. А вот как только попробовать посмотреть глубже, то тут и начинаются странности: для одних кандидатов рекомендаций слишком много, для других почти нет. А это уже не случайность, это системная история.

Где именно в данных прячется предвзятость 🔍

Предвзятость редко лежит на поверхности и почти никто не кладёт в модель колонку «пол» или «возраст» напрямую, что правильно, но вместо этого появляются другие признаки, например университет, год окончания или тип предыдущих компаний, да даже обычные формулировки в резюме или хобби.

В одном известном кейсе модель ранжирования резюме обучилась тому, что резюме с определёнными словами и паттернами хуже конвертируются в успешный найм. Проблема была в том, что эти паттерны чаще встречались у женщин и формально дискриминации не было.

Самое опасное здесь то, что средние метрики этого не показывают. Общая точность может быть под 90%, и никто не задается вопросами. А вот если разложить эту же метрику по группам, то вдруг выясняется, что для одной части кандидатов она падает до 60%. И это не шум, не редкие случаи, а стабильный провал ⚠️.

Отсутствие корреляций плохое оправдание 📊

Порой слышу от коллег: «Мы проверяли, корреляции нет». Это касается абсолютно разных вопросов, включая вопросы использования моделей.

Да, действительно, линейных зависимостей может не быть, и это нормально. Это ведь социальные и карьерные процессы, которые редко линейные: там много различных подводных камней и скрытых условий.

Так например, один и тот же опыт может по-разному оцениваться в зависимости от типа компании или рынка или один и тот же карьерный разрыв для разных групп интерпретируется не одинаково. Модель это считывает не как дискриминацию, а как шаблон успеха, поэтому отсутствие явных статистических связей это лишь знак, что проблема сложнее, чем кажется на первый взгляд.

Как аналитик может проверить это на практике 🛠

Проверка обычно сводится к очень приземлённым вопросам. Кто чаще попадает в рекомендации? Кто чаще отваливается? Одинаково ли модель ошибается для разных групп?

Я обычно начинаю с самого простого: сравниваю доли. Если среди рекомендованных кандидатов одна группа представлена заметно слабее, чем во входных данных, то это повод остановиться и разобраться.

Следующий пункт это ошибки. Если модель для какой-то одной группы чаще ошибается это уже операционный риск, потому что бизнесу потом объяснять не метрики, а последствия: закрытые вакансии, высокий отказ после оффера, увольнения на испытательном сроке и т.п.

Что важно: здесь не нужно сразу чинить модель. Сначала нужно понять, где именно ломается логика,, и иногда проблема вообще не в алгоритме, а в том, как размечены данные и какие решения считались успешными в прошлом.

Почему полностью «честного» ИИ не существует ⚖️

Любая модель - это отражение исторических данных бизнеса. А в опыте у бизнеса всегда есть противостояние: опытный кандидат против потенциального, "быстрее закрыть вакансию" против "посмотреть всех кандидатов". Алгоритм не выбирает ценность - он просто оптимизирует то, что ему задали на основании имеющихся данных.

Поэтому честная позиция аналитика это не обещать нейтральность, а прозрачно показывать ограничения. Например: «Модель даёт хороший сигнал, но для этой группы вероятность ошибки выше».

Вывод 🎯

ИИ в подборе это не замена мышлению, а усилитель того, что уже есть в данных:

  • если данные кривые, то и модель будет кривой,
  • если решения в прошлом были однобокими, алгоритм сделает их масштабируемыми

Роль аналитика здесь не в том, чтобы «починить ИИ», а в том, чтобы вовремя задать неудобные вопросы, разложить метрики по сегментам и объяснить бизнесу.

Иногда самый профессиональный подход не улучшать модель, а сказать руководству: «Используем осторожно, с ручной проверкой». Хоть это и выглядит менее технологично, зато гораздо ближе к реальности ✅

Я регулярно разбираю такие темы в своём Telegram-канале, если вам интересно глубже понимать аналитику и работать с данными, там регулярно выходят короткие заметки и практические примеры.