Найти тему
НЕЙРОСФЕРА

Стремление к более справедливым системам искусственного интеллекта: новые инструменты от Sony и Meta*

Оглавление

Компьютерное зрение: множество возможностей и вызовов

Системы компьютерного зрения сегодня находят применение практически везде - от классификации и маркировки изображений в социальных сетях до обнаружения объектов и лиц на фотографиях и видеороликах. Они также помогают выделять на изображениях важные элементы. Но, как оказалось, эти системы скрывают в себе предвзятость и допускают ошибки, особенно при обработке изображений, на которых изображены люди с черной или коричневой кожей, а также женщины. Кроме того, методы выявления предвзятости, используемые в настоящее время, также являются предвзятыми, разделяя людей на широкие категории, которые не учитывают разнообразие человеческих особенностей.

Два новых исследования, проведенных исследователями из компаний Sony и Meta*, предлагают новые методы измерения предвзятости в системах компьютерного зрения с целью более точно учесть многообразие человеческой расы. Оба исследования будут представлены на конференции по компьютерному зрению ICCV в октябре. Разработчики могут использовать эти инструменты для проверки разнообразия своих данных, что может привести к созданию более качественных и разнообразных наборов данных для обучения искусственного интеллекта. Кроме того, эти инструменты могут быть применены для измерения разнообразия в изображениях, создаваемых генеративным искусственным интеллектом.

Проблема существующего метода измерения предвзятости

В настоящее время предвзятость в системах компьютерного зрения, связанная с цветом кожи, обычно измеряется с использованием шкалы Фицпатрика, которая классифицирует кожу от светлой к темной. Эта шкала была изначально разработана для измерения загара белой кожи, но впоследствии она была широко принята как инструмент для определения этнической принадлежности. Этот метод измерения предвзятости сравнивает, насколько точны модели искусственного интеллекта в распознавании объектов и лиц у людей с разной цветовой кожей.

Однако этот подход имеет свои недостатки, так как он описывает цвет кожи в одной измерительной шкале, что может быть вводящим в заблуждение. Исследователи из Sony указывают на то, что классификация людей на основе одномерной шкалы упускает из виду предвзятость, которая влияет на азиатских людей, которые часто неадекватно представлены в западных наборах данных для искусственного интеллекта и могут одновременно входить и в категорию светлокожих, и в темнокожих. Кроме того, этот метод не учитывает изменение оттенка кожи с течением времени - например, кожа азиатов становится темнее и желтее с возрастом, в то время как белая кожа становится темнее и краснее.

Для решения этой проблемы исследователи из Sony разработали инструмент, который расширяет шкалу оттенков кожи до двух измерений, измеряя как цвет кожи (от светлого до темного), так и оттенок (от красного до желтого). Этот инструмент уже доступен бесплатно онлайн.

Инсайт от индустрии красоты

Идея представления оттенков кожи в двух измерениях не нова и часто используется в косметической индустрии. Алиса Сян, глава глобального отдела по этике искусственного интеллекта в Sony, подчеркивает, насколько важно учитывать не только цвет кожи, но и ее тон, например, теплый или холодный. Это новшество в подходе к измерению предвзятости в системах компьютерного зрения нашло поддержку у экспертов, таких как Гуха Балакришнан, ассистент-профессор, который исследовал предвзятость в моделях компьютерного зрения.

Новый способ измерения справедливости от Meta

На данный момент нет единого стандарта для измерения предвзятости в системах компьютерного зрения, что затрудняет сравнение различных систем между собой. Для улучшения этой ситуации Meta* разработала новый метод измерения справедливости в моделях компьютерного зрения, названный "Fairness in Computer Vision Evaluation" (FACET), который может быть применен к разнообразным задачам, таким как классификация, детектирование и сегментация. Это первый метод оценки справедливости, включающий множество различных задач компьютерного зрения и широкий спектр метрик справедливости.

Для создания FACET Meta* собрала бесплатный набор данных из 32 000 изображений людей и привлекла аннотаторов со всего мира для их разметки. Аннотаторов попросили пометить изображения 13 различными визуальными атрибутами, такими как воспринимаемый возраст, цвет и текстура кожи, представленность пола, цвет волос и многое другое. Они также помечали людей на основе их деятельности или профессии. Это добавляет нюансы и точность в оценку предвзятости. С использованием FACET исследователи Meta* оценили работу современных моделей компьютерного зрения на разных группах людей и выявили значительные неравенства. Например, модели оказались более точными в распознавании людей с более светлой кожей, даже если у них были особенности, такие как косички или кудрявые волосы.

Географически разнообразные аннотаторы для улучшения точности

Поскольку аннотаторы со всего мира имеют разные взгляды и представления о предвзятости, усилия Meta* по набору географически разнообразных аннотаторов признаны положительными. Это помогает более точно выявлять предвзятость, учитывая культурные различия. Это важный шаг в направлении более справедливых систем компьютерного зрения.

Доступность данных для исследователей

Meta* сделала свой набор данных свободно доступным в сети, что поможет другим исследователям. Аннотация данных является дорогостоящим и трудоемким процессом, и доступ к таким данным обычно ограничивается крупными технологическими компаниями. По словам Гуха Балакришнана, это положительное дополнение, которое сделает доступ к данным более широким кругам исследователей.

Реализм и ожидания

Однако, несмотря на эти значительные усилия, важно оставаться реалистичными относительно того, какие результаты можно ожидать от этих систем. Они, вероятно, приведут к улучшениям, но не изменят искусственный интеллект в корне. Как подчеркивает Анджелина Ванг, исследователь Принстонского университета, "Мы все еще далеки от чего-то, что действительно могло бы отразить то, как люди представляют себя, и, вероятно, мы никогда этого не достигнем".

Заключение

Исследования от Sony и Meta* представляют важный шаг к более справедливым системам искусственного интеллекта. Новые методы измерения предвзятости и справедливости позволят создавать более точные и разнообразные модели компьютерного зрения. Несмотря на вызовы и ограничения, эти усилия приносят важные инновации в разработку искусственного интеллекта и способствуют более справедливому обществу.

* признана экстремистской организацией, её деятельность в России запрещена.

Переходите на наш сайт macim. ru уже сегодня, чтобы не упустить уникальные предложения, эксклюзивный контент и возможности увеличения заработка.

Присоединяйтесь к нашему вебинару. Будущее уже здесь, и нейросети помогут вам оказаться на шаг впереди, обогнать ваших конкурентов и коллег, увеличить свой заработок и свое благосостояние, и смотреть в будущее более уверенно!

И не забывайте подписываться на наши соц.сети
YouTube: https://www.youtube.com/@MACIM-AI
Телеграм: https://t.me/MACIM_AI
Чат-бот: https://t.me/ChatGPT_Mindjorney_macim_bot
Вконтакте: https://vk.ru/macim_ai

#нейросети