3 подписчика
Те инструменты, которые мы используем во время диагностики сотрудников, безусловно играют существенную роль и влияют на полноту собираемой информации и в итоге — на качество решения.
Сложно спорить, что короткий разговор по телефону даст такую же полную информацию, как структурированное глубинное интервью или набирающие популярность инструменты с использованием искусственного интеллекта.
Совместное исследование профессора Университета Айовы, специалиста в области психологии труда Франка Шмитда и Джона Хантера из Университета Мичигана, специализирующегося на статистике и методах исследований в психологии, было опубликовано в 1998 году, второе появилось спустя 12 лет. На мой взгляд, это самая глубокоя и интересная работу по анализу валидности инструментов оценки. (Schmidt F., Hunter J. (1998, 2016) The Validity and Utility of Selection Methods in Personnel Psychology: Practical and Theoretical Implications of 100 Years.)
Я предпочитаю не использовать точные цифры, которые они вывели. Намного практичнее и удобнее указывать усредненные диапазоны возможной валидности каждого инструмента.
Средний диапазон валидности инструментов:
Структурированное интервью: 0,5-0,65
Центры оценки: 0,45-0,65
Образец выполнения работы 0,5-0,7
Биографические данные: 0,3-0,4
Личностные тесты: 0,15-0,3
Кейс-интервью: 0,2-0,4
Рекомендации: 0,1-0,2
Качество самого инструмента и профессионализм его использования играют большую роль. Кроме того, для каких-то должностей некоторые из инструментов просто не применимы. Те же Шмитд и Хантер указывают, что результаты худших интервьюеров ниже, чем произвольная оценка. В это же самое время лучшие интервьюеры значительно ближе к точной оценке. Опрос, который я проводил в прошлом году, подтвердил, что почти 80% руководителей уверены, что оценивают кандидатов «отлично», хотя и подтверждают, что совершают ошибки в выборе.
1 минута
22 июля 2025