Найти тему

А я теперь могу читать эмоции - не так ли?

Оглавление

В своем ежегодном отчете Институт AI Now, междисциплинарный исследовательский центр, изучающий социальные последствия использования искусственного интеллекта, призвал запретить технологии, предназначенные для распознавания эмоций людей в определенных случаях. В частности, исследователи считают, что технологию распознавания аффектов , также называемую технологией распознавания эмоций, не следует использовать в решениях, «влияющих на жизнь людей и на доступ к возможностям», таких как решения о найме или оценке боли, поскольку она недостаточно точна и может привести к необъективные решения.

Что это за технология, которая уже используется и продается, и почему она вызывает озабоченность?

Нарастание распознавания лица

Исследователи активно работают над алгоритмами компьютерного зрения, которые могут определять эмоции и намерения людей, а также делать другие выводы, по крайней мере, в течение десятилетия. Анализ мимики проводится примерно с 2003 года .Компьютеры смогли понять эмоции еще дольше . Эта новейшая технология опирается на ориентированные на данные методы, известные как «машинное обучение», алгоритмы, которые обрабатывают данные, чтобы «научиться» принимать решения, чтобы добиться еще более точного распознавания аффектов.

-2

Задача чтения эмоций

Исследователи всегда стремятся сделать что-то новое, опираясь на то, что было сделано раньше. Распознавание эмоций является соблазнительным, потому что мы как люди можем достичь этого относительно хорошо даже с раннего возраста , и все же умело копировать это человеческое умение, используя компьютерное зрение, все еще сложно. Хотя с изображениями можно делать довольно замечательные вещи, например стилизовать фотографию, чтобы она выглядела так, как будто она нарисована известным художником, и даже создавать фотореалистичные лица - не говоря уже о создании так называемых глубоких подделок - возможность Выводить такие свойства, как человеческие эмоции, из реального образа всегда интересовал исследователей.

Исследователь, который сейчас работает в Microsoft, объясняет, что распознавание эмоций людей с помощью компьютеров может привести к ряду положительных результатов.

Эмоции сложны, потому что они, как правило, зависят от контекста.Например, когда кто-то концентрируется на чем-то, может показаться, что он просто думает . Распознавание лиц прошло долгий путь с помощью машинного обучения, но при определении эмоционального состояния человека, основанного исключительно на взгляде на лицо человека, отсутствует ключевая информация.Эмоции выражаются не только выражением лица, но и тем, где он находится и что делает. Эти контекстные подсказки трудно внедрить даже в современные алгоритмы машинного обучения. Для решения этой проблемы предпринимаются активные усилия по расширению методов искусственного интеллекта для учета контекста не только для распознавания эмоций, но и для всех видов приложений.

Чтение эмоций сотрудников

Отчет, опубликованный AI Now, проливает свет на некоторые способы применения AI к рабочей силе для оценки производительности труда и даже на этапе собеседования. Анализ материалов интервью, особенно для удаленных соискателей, уже начался . Если менеджеры могут почувствовать эмоции своих подчиненных от интервью до оценки, эта информация может повлиять на принятие решений по другим вопросам трудоустройства, таким как повышение в должности, продвижение по службе или назначения. Но есть много других способов использования этой технологии.

Почему беспокойство

Эти типы систем почти всегда имеют недостатки справедливости, подотчетности, прозрачности и этики. Встраиваемые в их сопоставление с образцом . Например, одно исследование показало, что алгоритмы распознавания лиц оценивали лица черных людей как более злые, чем белые лица , даже когда они улыбались.

Многие исследовательские группы занимаются этой проблемой, но в этот момент кажется очевидным, что проблема не может быть решена исключительно на технологическом уровне. Вопросы, касающиеся СУДЬБЫ в ИИ, потребуют постоянных и согласованных усилий со стороны тех, кто использует технологию, чтобы знать об этих проблемах и решать их. Как подчеркивается в отчете AI Now : «Несмотря на увеличение содержания этики ИИ… этические принципы и заявления редко фокусируются на том, как можно реализовать этику ИИ и насколько они эффективны». В нем отмечается, что такие заявления по этике ИИ в основном игнорируют вопросы о том, как, где и кто введет такие руководящие принципы в действие. В действительности, вполне вероятно, что каждый должен знать о типах предубеждений и слабых сторон, которые присутствуют в этих системах, подобно тому, как мы должны осознавать свои предубеждения и недостатки других.

-3

Проблема с данными технологиями

Большая точность и легкость в постоянном мониторинге порождают другие проблемы, выходящие за рамки этики. Существует также целый ряд общих проблем с конфиденциальностью, связанных с технологиями, начиная с распространения камер, которые служат в качестве каналов для полиции, до потенциально анонимных конфиденциальных данных .

Принимая во внимание этические соображения и вопросы конфиденциальности, естественной реакцией может стать призыв к запрету этих методов. Конечно, применение ИИ к результатам собеседования или процедурам вынесения уголовного приговора представляется опасным, если системы изучают ошибки или иным образом ненадежны. Тем не менее, существуют полезные приложения, например, помогающие обнаружить предупреждающие знаки для предотвращения самоубийств среди молодежи и обнаружения пьяных водителей . Это одна из причин, почему даже заинтересованные исследователи, регуляторы и граждане вообще не стали призывать к полному запрету технологий, связанных с ИИ.

Сочетание ИИ и человеческого суждения

В конечном счете, разработчикам технологий и обществу в целом необходимо внимательно посмотреть, как информация из систем искусственного интеллекта внедряется в процессы принятия решений. Эти системы могут давать неверные результаты, как и любая другая форма интеллекта. Они также известны своей плохой оценкой собственной уверенности, в отличие от людей, даже в таких простых задачах, как способность распознавать объекты . Также остаются значительные технические проблемы в чтении эмоций, особенно учитывая контекст, чтобы вывести эмоции .

Если люди полагаются на систему, которая не точна в принятии решений, пользователи этой системы находятся в худшем положении. Также хорошо известно, что люди склонны доверять этим системам больше, чем другим авторитетным фигурам . В свете этого нам, как обществу, необходимо тщательно учитывать справедливость, подотчетность, прозрачность и этику этих систем как при разработке, так и при применении, всегда оставляя человека в качестве лица, принимающего окончательное решение.

Дорогой читатель! Понравилась статья отблагодарите подпиской и лайком)