Найти в Дзене
ИнфоРобус

Исследователи критикуют программное обеспечение ИИ, которое предсказывает эмоции

САН-ФРАНЦИСКО (Рейтер) - видная группа исследователей, встревоженная пагубными социальными последствиями искусственного интеллекта, призвала в четверг запретить автоматический анализ выражений лица при приеме на работу и других важных решениях.

Институт AI Now в Университете Нью-Йорка заявил, что противодействие такому «программному распознаванию аффектов» на основе программного обеспечения является его главным приоритетом, поскольку наука не оправдывает использование технологии, и еще есть время остановить широкое распространение.

Группа профессоров и других исследователей привела в качестве проблемного примера компанию HireVue, которая продает системы для удаленных видеоинтервью для таких работодателей, как Hilton и Unilever. Он предлагает ИИ анализировать движения лица, тон голоса и речевые паттерны и не раскрывает баллы кандидатам на работу.

Некоммерческий электронный информационный центр конфиденциальности подал жалобу на HireVue в Федеральную торговую комиссию США, и AI Now уже критиковала компанию.

HireVue заявила, что не видела отчет AI Now и не отвечала на вопросы о критике или жалобе.

«Многие кандидаты на работу воспользовались технологией HireVue, чтобы помочь устранить очень существенную предвзятость человека в существующем процессе найма», - сказала пресс-секретарь Ким Паоне.

AI теперь в своем четвертом ежегодном докладе о воздействии искусственных инструментов разведки, сказал скрининг работа является одним из многих способов , в которых такое программное обеспечение используется без ответственности, и , как правило благоприятствования привилегированных групп.

В отчете цитируется недавний академический анализ исследований о том, как люди интерпретируют настроения по выражению лица. Эта статья обнаружила, что предыдущая стипендия показала, что такое восприятие ненадежно по нескольким причинам.

«То, как люди передают гнев, отвращение, страх, счастье, грусть и удивление, существенно различается в разных культурах, ситуациях и даже среди людей в одной ситуации», - написала команда из Северо-Восточного университета и Массачусетской больницы общего профиля.

В исследовании говорится, что компании, в том числе Microsoft Corp., продают свои возможности для классификации эмоций с помощью программного обеспечения. Microsoft не ответила на запрос о комментариях в среду вечером.

AI Now также подверг критике Amazon.com Inc, которая предлагает анализ выражений эмоций с помощью программного обеспечения Rekognition. Amazon сообщил Reuters, что его технология определяет только внешний вид чьего-либо лица и не претендует на то, чтобы показать, что на самом деле чувствует человек.

На телефонной конференции перед выпуском отчета основатели AI Now Кейт Кроуфорд и Мередит Уиттакер заявили, что масштабы разрушительного использования ИИ увеличиваются, несмотря на широкий консенсус по этическим принципам, поскольку их нарушение не имеет последствий.

-2