Вы отправили резюме — и ждете: день, два, неделю... А решение о том, позвонить вам или нет, уже давно принято — только принял его не рекрутер, а алгоритм.
Это не антиутопия и не фантастика — сегодня это стандартная практика найма в сотнях крупных компаний.
Как это работает
Все начинается еще до того, как живой человек открывает почту. Системы автоматического разбора резюме — так называемые системы отслеживания кандидатов — сканируют документ по ключевым словам, структуре, хронологии, соответствию описанию вакансии. Если резюме не проходит этот фильтр, оно просто исчезает в архиве.
По данным исследования компании Jobscan, более 98% крупных работодателей из списка Fortune 500 используют подобные системы. При этом около 75% резюме отсеиваются автоматически — еще до того, как их увидит рекрутер.
Но это только первый этап. Ряд компаний также использует алгоритмы для анализа видеоинтервью: система оценивает мимику, интонацию, темп речи, выбор слов. Компания HireVue, один из крупнейших разработчиков таких решений, утверждает, что ее алгоритм способен предсказывать успешность кандидата на основе десятков тысяч микропараметров.
Однако в 2021 году под давлением исследователей и правозащитников компания была вынуждена отказаться от функции анализа выражений лица — после того как независимые эксперты поставили под сомнение научную состоятельность этого подхода.
Предвзятость, зашитая в код
Главная проблема алгоритмического найма — это предвзятость (англ. bias), которую алгоритм усваивает в процессе обучения. Искусственный интеллект обучается на прошлых данных, а прошлое в корпоративном мире далеко не всегда справедливо.
Показательный пример — история Amazon. В 2018 году стало известно, что компания несколько лет разрабатывала систему автоматического отбора резюме, которую в итоге пришлось закрыть. Алгоритм, обученный на данных о приемах на работу за десять лет, научился систематически понижать рейтинг женских резюме — потому что исторически в технических подразделениях компании преобладали мужчины. Система воспроизводила неравенство, не осознавая этого.
Это не единичный случай. Исследование, опубликованное в журнале «Science» в 2019 году, показало, что коммерческие алгоритмы, используемые в том числе в кадровой сфере, демонстрируют систематические расовые различия в оценках при прочих равных условиях. Алгоритм не злонамерен — он просто воспроизводит паттерны, которые находит в данных во время обучения, закрепляя существующие социальные предубеждения.
Наука и этика: что думают исследователи
Проблема предвзятости алгоритмов искусственного интеллекта в социально-экономических задачах, включая найм, активно исследуется мировым научным сообществом.
Исследователи подчеркивают, что нормативного регулирования этичности недостаточно для полного преодоления этой проблемы; необходимо выявлять и корректировать случаи усвоения алгоритмами дискриминационных паттернов. Особое внимание уделяется разработке этичных и прозрачных алгоритмов для автоматизированных систем рекрутмента, обеспечивающих объяснимость принимаемых решений.
Некоторые страны уже принимают меры в ответ на эти вызовы. В 2023 году в США вступил в силу закон штата Нью-Йорк, обязывающий работодателей проводить независимую проверку алгоритмов найма на предвзятость и раскрывать эту информацию кандидатам. Это первый в своем роде нормативный акт, и он, по всей видимости, задает тон для будущего регулирования.
В Евросоюзе принятый в 2024 году Закон об искусственном интеллекте относит системы найма к категории высокого риска — с соответствующими требованиями к прозрачности и надзору.
Российская практика
В России автоматизация HR-процессов развивается неравномерно. Крупные технологические и финансовые компании — Яндекс, Сбер, VK, Т-Банк — уже несколько лет используют алгоритмический скрининг резюме, автоматические чат-боты для первичного контакта с кандидатами и аналитику данных для оценки соответствия вакансии. Для них это уже не эксперимент, а часть рабочей инфраструктуры.
Остальной рынок — другая история. Средний и малый бизнес в большинстве своем по-прежнему работает вручную. Автоматизированный отбор здесь скорее исключение, чем правило.
Согласно данным совместного исследования «Технологий Доверия» и Knomary, 44% российских компаний в той или иной степени используют искусственный интеллект в HR.
Однако, когда речь заходит о непосредственном использовании ИИ в процессе найма для принятия решений о кандидатах (например, для автоматизированного скрининга резюме или анализа интервью), цифры значительно скромнее. По данным hh.ru на 2024 год, только около 5% российских компаний применяют ИИ именно в подборе персонала.
Разрыв между лидерами и остальным рынком огромен, и именно он объясняет, почему обобщенные цифры могут давать неполное представление.
Что это значит для соискателя
- Резюме теперь пишется для двух аудиторий сразу. Сначала его читает алгоритм — и только потом человек. Это означает, что ключевые слова из описания вакансии должны присутствовать в тексте буквально, а не в пересказе. Структура важна не меньше содержания.
- Видеоинтервью — это не просто разговор. Если платформа анализирует запись автоматически, темп речи, паузы и формулировки могут влиять на итоговую оценку. Это не повод притворяться — но повод готовиться осознанно.
- Алгоритм можно оспорить. В ряде юрисдикций у кандидата уже есть право потребовать объяснения отказа, если решение принималось автоматически. В России эта практика пока не устоялась, но направление движения очевидно.
Алгоритмы в найме — это инструмент, который масштабирует то, что в него заложено. Когда за ним стоит продуманная методология и регулярный аудит — он может снижать субъективность и экономить время. Когда за ним стоят необработанные исторические данные и отсутствие контроля — он воспроизводит старые ошибки с промышленной скоростью.
Рынок труда меняется, и чем раньше соискатели это поймут, тем увереннее будут чувствовать себя в новых правилах игры — даже если первым читателем их резюме окажется не человек.