САН-ФРАНЦИСКО (Рейтер) - видная группа исследователей, встревоженная пагубными социальными последствиями искусственного интеллекта, призвала в четверг запретить автоматический анализ выражений лица при приеме на работу и других важных решениях.
Институт AI Now в Университете Нью-Йорка заявил, что противодействие такому «программному распознаванию аффектов» на основе программного обеспечения является его главным приоритетом, поскольку наука не оправдывает использование технологии, и еще есть время остановить широкое распространение.
Группа профессоров и других исследователей привела в качестве проблемного примера компанию HireVue, которая продает системы для удаленных видеоинтервью для таких работодателей, как Hilton и Unilever. Он предлагает ИИ анализировать движения лица, тон голоса и речевые паттерны и не раскрывает баллы кандидатам на работу.
Некоммерческий электронный информационный центр конфиденциальности подал жалобу на HireVue в Федеральную торговую комиссию США, и AI Now уже критиковала компанию.
HireVue заявила, что не видела отчет AI Now и не отвечала на вопросы о критике или жалобе.
«Многие кандидаты на работу воспользовались технологией HireVue, чтобы помочь устранить очень существенную предвзятость человека в существующем процессе найма», - сказала пресс-секретарь Ким Паоне.
AI теперь в своем четвертом ежегодном докладе о воздействии искусственных инструментов разведки, сказал скрининг работа является одним из многих способов , в которых такое программное обеспечение используется без ответственности, и , как правило благоприятствования привилегированных групп.
В отчете цитируется недавний академический анализ исследований о том, как люди интерпретируют настроения по выражению лица. Эта статья обнаружила, что предыдущая стипендия показала, что такое восприятие ненадежно по нескольким причинам.
«То, как люди передают гнев, отвращение, страх, счастье, грусть и удивление, существенно различается в разных культурах, ситуациях и даже среди людей в одной ситуации», - написала команда из Северо-Восточного университета и Массачусетской больницы общего профиля.
В исследовании говорится, что компании, в том числе Microsoft Corp., продают свои возможности для классификации эмоций с помощью программного обеспечения. Microsoft не ответила на запрос о комментариях в среду вечером.
AI Now также подверг критике Amazon.com Inc, которая предлагает анализ выражений эмоций с помощью программного обеспечения Rekognition. Amazon сообщил Reuters, что его технология определяет только внешний вид чьего-либо лица и не претендует на то, чтобы показать, что на самом деле чувствует человек.
На телефонной конференции перед выпуском отчета основатели AI Now Кейт Кроуфорд и Мередит Уиттакер заявили, что масштабы разрушительного использования ИИ увеличиваются, несмотря на широкий консенсус по этическим принципам, поскольку их нарушение не имеет последствий.