Почти в каждой компании в HR функции есть один KPI, который выглядит абсолютно правильно - именно поэтому его и любят.
"Сколько часов обучения прошли сотрудники?"
Эта метрика не конфликтная, она легко считается, её очень удобно показывать в отчёте. Еще ее также можно планировать на год вперед и радоваться, что план выполнен аж на 103%. И если вы когда-нибудь видели презентацию L&D, то знаете этот стиль: график вверх - значит всё круто.
Только вот есть одна неприятная деталь: часы обучения почти не связаны с тем, стали ли люди работать лучше.
И вот из-за этого HR иногда попадает в странную ситуацию: компания огромные тратит деньги на обучение; люди действительно учатся или делают вид, что учатся; отчёты становятся всё красивее - а руководители всё равно чувствуют, что эффективность и поныне там. Или немного и двигается, но непонятно, обучение здесь влияет как-то или нет.
Давайте разберёмся, как из мы учимся перейти в мы меняем результат - и как построить метрики так, чтобы они не стимулировали имитацию активности.
Почему часы почти всегда превращаются в имитацию
Как только часы обучения становятся KPI, система делает ровно то, что делает любая система в этом случае - оптимизируется под цифру.
Сотрудники выбирают курсы попроще, чтобы закрыть норму легче. Руководители отправляют людей учиться в периоды, когда меньше риска сорвать план. L&D начинает выпускать контент, который удобно потреблять, а не тот, который реально меняет навыки персонала. В итоге все заняты, все молодцы, отчёт блестит, а вот работа внутри почти не изменилась.
Это не означает, что обучение бесполезно. Это означает, что вы меряете не то, что хотите получить.
Обучение - не событие, а изменение поведения
Если убрать всё лишнее, то обучение имеет смысл тогда, когда оно приводит к изменению поведения (то есть переносу теоретических знаний, полученных на обучении, в конкретные решения сотрудника на работе).
То есть человек не просто посетил какой-то курс, а начал делать по-другому свою работу.
А часы - это всего лишь факт присутствия и они никак не отвечают на вопрос обучился ли человек чему-либо.
А теперь предлагаю рассмотреть, что же это такое - аналитика обучения.
Три уровня метрик
Дабы не утонуть в деталях, предлагаю такой формат метрик.
1. Участие - что произошло
Посещаемость, завершение курсов, да, это по факту те же часы. Это важный маркер, но только как маркер дошел ли курс до аудитории.
2. Освоение - чему научились
Тесты, практические задания, разборы кейсов. Это будет уже лучше, но всё ещё находится внутри учебной среды.
3. Перенос и результат - что изменилось в работе
Изменение поведения, повышение качества, ускорение работы, снижение числа ошибок - в зависимости от того, чему вы учили.
Сильная система метрик устроена так: участие и освоение - это контроль качества обучения, а перенос и результат - это контроль ценности этого самого обучения.
Как выбрать эффект, который реально связан с обучением
Иногда пытаются привязать обучение к большим показателям, которые зависят от сотни факторов. Звучит красиво, вообще говоря. "После курса по продажам выросла выручка". Но тут редко кто отсеивает рыночную конъюнктуру, цены, сезонность, смену руководства и прочие причины. Главное, что в этом году обучение прошло и выросла выручка, ведь в прошлом не проводили обучения и выручка так не выросла. Логика "железная" в общем.
Чтобы не обмануть себя, лучше выбирать метрики эффективности, которые:
- близко находятся к навыку, который вы развиваете;
- измеряются до и после на сопоставимом отрезке времени;
- достаточно сильно зависят от человека или команды, чтобы эффект мог проявиться.
Парочка примеров.
Если обучение про переговоры, то смотрите не сразу выручку, а долю успешных исходов, на снижение скидок по результатам переговоров, на рост конверсии по этапам.
Если обучение про безопасность, то смотрите на число инцидентов, корректность соблюдения процедур, повторяемость нарушений.
Ключевая мысль: эффект должен быть управляем через навыки, иначе вы просто меряете погоду термометром.
Что должно быть в метрике
Если метрика устроена так, что её легко улучшить без реальных изменений - её улучшат без реальных изменений. Это закон. Но что помогает избегать такого?
Меряйте навык в процессе
Люди очень много работают в компьютере, и там почти любой навык оставляет свои следы. В CRM, допустим, меняется качество заполнения данных. В таск-трекере уменьшается число возвратов. В поддержке растёт доля решений с первого обращения. А в код-ревью снижается доля типовых ошибок.
Пример: допустим у вас рекрутеры публикую вакансии на HeadHunter, собрали все данные по API по ранее опубликованным вакансиям, замерили ошибки в тексте, проверили, заполняются ли вакансии по корпоративному шаблону. И если было обучение на тему "Порядок работы с вакансиями на HeadHunter" (или как-то так), то можно сравнивать снизилась ли частота ошибок и стали ли заполнять вакансии по шаблону.
Часто ничего нового внедрять не надо. Надо правильно выбрать сигнал.
Оценивайте качество, а не количество
Количество накручивается. Качество накручивается гораздо сложнее. Вместо сколько встреч проведено - сколько встреч закончились следующим шагом.
Добавляйте контекст: сегменты и сравнение
Средняя температура по компании - враг честной аналитики. Разбейте на сегменты: новичок/опытный, команда, роль, тип задач. И сравнивайте с теми, кто обучение не проходил.
Самая рабочая схема: до/после + сравнение с теми, кто не учился
Если хочется сделать это максимально практично и без сложной статистики, вот схема, которая работает почти везде:
- Выбираем 1-2 близких показателя эффективности
- Фиксируем базу "до" (например, 4-8 недель)
- Смотрим "после" на таком же горизонте
- Сравниваем динамику у тех, кто прошёл обучение, и у похожей группы, кто не проходил
Если у обучившихся показатель улучшился на 10%, а у контрольной группы на 2% - вы начинаете видеть эффект, который не объясняется общими трендами.
Это ещё не идеальная причинность. Но это уже точно не самообман на часах обучения.
А если обучение про soft skills и измерить сложно?
Тут обычно начинается самое неприятное. У навыков "лидерство, коммуникации, критическое мышление" простого нет датчика, который бы можно было взять из системы.
Здесь требуется оценивать наблюдаемое поведение комплексно, нежели по одному какому-то критерию.
Для менеджеров под такой комплексной оценкой могут быть такие критерии: регулярность 1:1, доля целей с критериями, скорость закрытия блокеров, текучесть новичков в команде, ясность планов развития.
Для коммуникаций это может быть: количество итераций согласований, доля эскалаций, время до решения спорных вопросов, качество документации.
И при этом, не всё обязательно фиксировать в системе, даже банальные опросы подчиненных или коллег будут уже гораздо ближе к истине.
Минимальный набор метрик
Если без фанатизма, то я бы оставил три метрики на любую программу обучения:
- Охват - дошли ли до нужной аудитории.
- Подтверждение освоения навыка - есть ли доказательство, что навык действительно усвоен (кейс, практика, симуляция)
- Метрика переноса в работу - один показатель в работе, который должен измениться после обучения
И добавил бы к ним простое правило: если метрика изменилась, что мы делаем.
Вывод
Часы обучения - это хорошая метрика для первичной оценки того, больше или меньше люди тратят времени на обучение, но как KPI она годится очень слабо, потому что не измеряет эффективность этого обучения.
Хорошая метрика оценки обучения должна отвечать на вопрос: что изменилось в работе после обучения.
Я регулярно разбираю такие темы в своём Telegram-канале, если вам интересно глубже понимать аналитику и работать с данными, там регулярно выходят короткие заметки и практические примеры.