Найти в Дзене
Сергей Журихин

ИИ в подборе персонала как первый провал ожиданий 2026-го

⚠️ 25,9% компаний Северной Америки используют алгоритмы для скрининга резюме. 58% руководителей найма считают их “критичными”. На бумаге — революция. Реальность другая. PwC: только 10-12% фирм видят возврат инвестиций. 56% потратили деньги впустую. ManpowerGroup фиксирует парадокс: 64% сотрудников сидят на месте из страха, что ИИ их заменит. Вместо мобильности — тревожность. Судебная волна уже началась. Мобли против Workday (май 2025): судья Линь установила прецедент — “нельзя отделять решения алгоритма от решений компании”. Workday отклонила 1,1 МЛРД заявок. Потенциальных истцов — сотни миллионов. Экстраполяция по iTutorGroup ($365k за 200 человек) дает exposure $100M+. Harper против SiriusXM: алгоритм iCIMS фильтровал афроамериканцев по косвенным признакам (вуз, почтовый индекс). ACLU против Intuit/HireVue: глухому кандидату система дала рекомендацию “работать над активным слушанием” без субтитров. CVS уже сдался — прекратил анализ мимики. Наука безжалостна. Brookings (август 2025)

ИИ в подборе персонала как первый провал ожиданий 2026-го ⚠️

25,9% компаний Северной Америки используют алгоритмы для скрининга резюме. 58% руководителей найма считают их “критичными”. На бумаге — революция.

Реальность другая. PwC: только 10-12% фирм видят возврат инвестиций. 56% потратили деньги впустую. ManpowerGroup фиксирует парадокс: 64% сотрудников сидят на месте из страха, что ИИ их заменит. Вместо мобильности — тревожность.

Судебная волна уже началась.

Мобли против Workday (май 2025): судья Линь установила прецедент — “нельзя отделять решения алгоритма от решений компании”. Workday отклонила 1,1 МЛРД заявок. Потенциальных истцов — сотни миллионов. Экстраполяция по iTutorGroup ($365k за 200 человек) дает exposure $100M+.

Harper против SiriusXM: алгоритм iCIMS фильтровал афроамериканцев по косвенным признакам (вуз, почтовый индекс). ACLU против Intuit/HireVue: глухому кандидату система дала рекомендацию “работать над активным слушанием” без субтитров. CVS уже сдался — прекратил анализ мимики.

Наука безжалостна. Brookings (август 2025): идентичные резюме, разные имена. ИИ в 5 раз чаще выбирал мужчин, в 10 раз — белых. University of Washington: рекрутеры копируют предвзятость алгоритма. Система не просто дискриминирует — она дрессирует людей.

Почему? #Алгоритмы обучаются на 50+ годах человеческой дискриминации. “Непрерывный стаж” бьет по женщинам, менявшим карьеру. “Технический жаргон” — по гуманитариям. Amazon (2018) штрафовала резюме со словом “женщины”. ИИ научился связывать имена с расой.

Колорадо (c 1 февраля 2026): первый штатный закон — оценка рисков ДО внедрения, уведомление кандидатов, право на человеческую проверку. EEOC: алгоритмы не освобождают от ответственности.

Что делать завтра - фокус для HRD:

1. #Аудит предвзятости (100 тестовых резюме с разными именами). Если <80% группы отбирается против другой — система бракована. Стоимость: $10-50k, время: 4-8 недель.

2. Человеческий надзор: ИИ рекомендует, вы решаете. Обучение предвзятости рекрутеров = 13% снижения дискриминации.

3. #Мониторинг: ежемесячный анализ показателей отбора по полу, возрасту, инвалидности.

4. #Прозрачность: “Мы используем алгоритм. Запросите пересмотр человеком”.

#Прогноз Q2-Q3 2026:

первое урегулирование >$50M. Волна “пауз внедрения”. Гибридные модели (ИИ рекомендует, люди решают) станут стандартом.

Вывод:

#ИИ в найме — не “объективная машина”. Это усилитель исторических предрассудков. У вас сейчас редкий шанс: стать теми, кто ставит красную линию, а не подписывает акты внедрения непроверенных систем.

Еще Что-то хорошее в канале Сергея Журихин

#HR #ИИвHR #aI #Тренды2026 #HRTech