Читали истории, как ИИ некорректно отбирает кандидатов? Теперь научное - академическое исследование на эту тему Телеграм канал HR-аналитики | НАШ КАНАЛ В VK | Мы в MAX Языковые модели, оценивающие резюме, систематически предпочитают тексты, написанные такой же моделью, — даже если человеческое резюме объективно лучше. А вы уже сталкивались с таким в практике? Университет Мэриленда, Национальный университет Сингапура, Университет штата Огайо — 2025 (февраль 2026, arXiv) Correspondence experiment (аналог аудита найма Бертрана и Муллайнатана). Каждому резюме создавались «двойники» от разных LLM — только резюмирующий блок менялся, остальное оставалось идентичным. Модели попарно сравнивали резюме и выбирали «лучшее». Оценка велась по двум метрикам справедливости: statistical parity и equal opportunity. 2 245 настоящих человеческих резюме с LiveCareer.com (написаны до эпохи генеративного ИИ). Тестировались 9 моделей: GPT-4o, GPT-4o-mini, GPT-4-turbo, LLaMA 3.3-70B, LLaMA 3.2-3B, LLaMA
ИИ нанимает себе подобных: как алгоритмы найма на основе ИИ дискриминируют людей
26 апреля26 апр
8
2 мин