Через несколько дней после массового сокращения 12 000 рабочих мест в компании Google сотни бывших сотрудников собрались в Discord, чтобы обсудить, насколько случайным оказался способ, которым их внезапно сократили.
Google утверждает, что в решениях о сокращении рабочих мест "не было никакого алгоритма". Но бывшие сотрудники не зря задаются этим вопросом, поскольку множество инструментов искусственного интеллекта прочно вошли в офисную жизнь. Менеджеры по персоналу используют программное обеспечение машинного обучения для анализа миллионов данных, связанных с трудоустройством, выдавая рекомендации о том, кого следует проинтервьюировать, нанять или повысить в должности.
Материнская компания Google Alphabet сокращает рабочие места, в результате чего число увольнений в технологическом секторе превысило 200 000.
Проведенный в январе опрос 300 эйчаров американских компаний показал, что 98% уверены в пользе программного обеспечения и алгоритмов при принятии решений об увольнении в этом году.
Многие люди используют программное обеспечение, которое анализирует данные о производительности. 70% менеджеров по персоналу, участвовавших в опросе, заявили, что эффективность работы является наиболее важным фактором при оценке того, кого следует уволить.
Другие показатели, используемые для увольнения людей, могут быть менее однозначными. Например, алгоритмы HR могут вычислить, какие факторы определяют вероятность ухода человека из компании по собственному желанию.
Джефф Шварц, вице-президент компании Gloat, занимающейся разработкой программного обеспечения для кадровых служб с использованием искусственного интеллекта, говорит, что программное обеспечение его компании работает как система рекомендаций, подобно тому, как Amazon предлагает товары, что помогает клиентам определить, с кем проводить собеседования на открытые вакансии.
Зависимость от программного обеспечения вызвала дебаты о том, какую роль должны играть алгоритмы при лишении людей работы, и насколько прозрачными должны быть причины сокращения рабочих мест для работодателей, говорят эксперты в области труда.
Опасность здесь заключается в использовании некачественных данных и принятии решения на основе того, что говорит алгоритм. Учитывая это, руководители не могут позволить алгоритмам единолично решать, кого сокращать, и должны проверять предложения ИИ, чтобы убедиться, что он не предвзят к людям.
Материал подготовлен на основе информации открытых источников: washingtonpost.com