В 2018 году Лейд Обамехинти была шокирована алгоритмом, который не мог идентифицировать темнокожих людей.
Менеджер Facebook помогала тестировать устройство Portal для видеообщения, которое использует компьютерное зрение для идентификации и увеличения говорящего человека. Лейд Обамехинти — темнокожая, поэтому устройство проигнорировало её рассказ и переключилось на другого человека с белой кожей.
Обамехинти рассказала об этом случае на ежегодной конференции разработчиков Facebook. За день до этого, генеральный директор Facebook — Марк Цукерберг сообщал о том, что многие продукты компании станут более приватными.
Второй день конференции возглавил главный технолог Facebook — Майк Шрепфер. Он совместно с Обамехинти и другими техническими лидерами размышляли над проблемами, связанными с использованием технологий. В особенности — ИИ для защиты и улучшения продуктов Facebook без создания новых предубеждений и проблем.
Простых решений не бывает, — сообщает Шрепфер.
Шрепфер и Цукерберг отметили, что Facebook нуждается в использовании ИИ-технологий для того, чтобы устранить непреднамеренные последствия оцифровки человеческих отношений. Но как и любая революционная технология, ИИ может стать причиной непредсказуемых последствий.
История Обамехинти о дискриминации из-за несовершенства алгоритмов заставила Facebook создавать новые инструменты для того, чтобы избежать проблем в будущем. Facebook должна создать такой продукт, который будет принят несколькими разными группами разработки.
Прежде всего это связано с расовыми и гендерными предубеждениями в данных, которые используются для обучения систем компьютерного зрения, а также с малой производительностью системы.
Многие ИИ-специалисты начали обсуждать опасность предвзятости ИИ-систем, поскольку им доверяют важные задачи. Например, в 2015 году Google.Фото классифицировала некоторых темнокожих людей как горилл. Чтобы исправить это компания просто-напросто убрала возможность классифицировать что-то как горилл, шимпанзе и т. д.
Обамехинти отметила, что она смогла найти менее радикальное решение для системы и улучшила возможности для распознавания людей. Она продемонстрировала диаграмму, которая показывает, что обновлённый Portal увеличил точность распознавания мужчин и женщин с разными тонами кожи до 90 %.
Теперь под проверку попадут фильтры дополненной реальности Facebook. Задача — узнать насколько хорошо они распознают людей с тёмным цветом кожи.
Когда ИИ-технологии встречаются с людьми, риск маргинализации возрастает, — сообщила Обамехинти.
Кандела, директор по ИИ-технологиям Facebook, сообщил о том, что его компания намеревается бороться с дезинформацией при помощи ИИ-технологий. Также он напомнил, что разработчики должны быть более осторожными для того, чтобы технология не стала причиной неравенства среди пользователей Facebook.
Сейчас Facebook запустила систему фильтрации контента, которая предназначена для выявления дезинформирующих публикаций, относящихся к парламентским выборам в Индии. Эта система находит посты и отмечает их для того, чтобы человек-модератор проверил их на наличие или отсутствие дезинформации. Кандела отметил, что инженеры тщательно сравнивают точность системы при работе с различными языками для того, чтобы избежать нарушений руководящих принципов справедливости Facebook.
Аналогичные проблемы возникли в ходе тестирования того, сможет ли Facebook помечать фейковые новости быстрее при помощи делегирования работ по проверке контента своим пользователям. Кандела считает необходимым, чтобы группа людей, рассматривающая конкретные посты, состояла из представителей разнообразных сообществ и стран.
Эксперты по ИИ-технологиям Facebook надеются, что некоторые проблемы, связанные с обеспечением справедливости, исчезнут после увеличения производительности. Шрепфер отметил, что в результате исследования они смогли достигнуть более точной обработки изображений и текстов при использовании меньшего количества данных. Он не стал сообщать какие-либо подробности, вместо этого он упомянул цифры, которые были опубликованы в прошлом ноябре.
Кандела отметил, что решение несправедливости ИИ-технологий по отношению к некоторым группам лиц — это комплексная задача, требующая правильных действий со стороны руководства и разработки подходящих инструментов.
Источник: Wired.com