Найти тему
16,7 тыс подписчиков

😭Кембриджские исследователи считают, что ПО для найма с ИИ-алгоритмами – автоматизированная лженаука


— Согласно новой работе, опубликованной исследователями из Центра гендерных исследований Кембриджского университета, ИИ демонстрирует субъективность и ненадежность при отборе сотрудников, а также использует алгоритмы, основанные на лженауке.

— ИИ нельзя обучить определять только связанные с работой характеристики и игнорировать гендерные/расовые характеристики кандидата. Это связано с тем, что те качества, которые, как мы считаем, необходимы для того, чтобы быть хорошим работником, по своей сути связаны с гендерными и расовыми характеристиками

— Особое беспокойство у исследователей вызвали инструменты, сравнивающие мельчайшие детали речи и телодвижений кандидата с идеальным образцом сотрудника компании. По словам соавтора исследования, доктора Элеонору Драге, такие инструменты не имеют никакой научной основы и больше похожи на френологию – антинаучную теорию о связи психических свойств человека и строения его черепа.

Около минуты
351 читали