Найти в Дзене

Искусственный интеллект обещает быть справедливым

https://s.appleinsider.ru/2018/01/fr.jpg
https://s.appleinsider.ru/2018/01/fr.jpg
Amazon и Национальный Научный Фонд (NSF) выделяют 10 миллионов долларов на исследования справедливости искусственного интеллекта. Amazon хочет свести к минимуму предвзятость и решить вопросы прозрачности и подотчетности в области искусственного интеллекта (ИИ).

«С ростом использования ИИ в повседневной жизни, справедливость в искусственном интеллекте становится все более важной темой для научных кругов, правительств и промышленности», - написал в своем блоге Прем Натараджан, вице-президент по естественному пониманию в группе Alexa AI. «Здесь, в Amazon, справедливость систем машинного обучения, которые мы создаем для поддержки нашего бизнеса, имеет решающее значение для установления и поддержания доверия наших клиентов».

В течение следующих трех лет будут вестись разработки систем, ориентированных на честность в области искусственного интеллекта и машинного обучения. Партнерство Amazon с NSF нацелено решить вопросы объяснимости решений искусственного интеллекта, его потенциальных предубеждений, разработки стратегии смягчения последствий, подтверждение справедливости и извлечение дополнительной выгоды из потенциала систем ИИ. Обе компании рассчитывают, что их совместная работа приведет к появлению новых инструментов с открытым исходным кодом, общедоступных наборов данных и публикаций.

Источник: https://blog.pattern.com/hubfs/shutterstock_1083512990-1.jpg
Источник: https://blog.pattern.com/hubfs/shutterstock_1083512990-1.jpg

Стоит отметить, что эта новость появились после того, как исследователи из Массачусетского технологического института опубликовали исследование, в ходе которого обнаружилось, что Rekognition - API-интерфейс обнаружения объектов Amazon Web Services оказался не способен надежно определять пол женских и темнокожих лиц в определенных сценариях. Соавторы исследования утверждают, что в экспериментах, проведенных в течение 2018 года, функция лицевого анализа Rekognition по ошибке определила изображения женщин как мужчин и женщин с более темной кожей как мужчин в 19 и 31 процентах случаев соответственно.

Amazon оспаривает эти выводы. Компания утверждает, что в тестах обновленной версии Rekognition зафиксировала «отсутствие различий» в точности классификации по признаку пола для всех этнических групп.

Ранее Facebook объявил о честности системы Fairness Flow, которая автоматически предупреждает, если алгоритм делает несправедливое суждение о человеке на основе их расы, пола или возраста.

Microsoft запустила собственное решение, а Google дебютировала с What-If Tool для обнаружения смещения веб-панели. Чтобы не отставать, IBM прошлой осенью выпустила автоматизированный облачный пакет AI Fairness 360, который "постоянно предоставляет идеи" о том, как системы ИИ принимают свои решения и рекомендует корректировки, которые могут уменьшить влияние предубеждений.

Число корпораций, академических учреждений и отраслевых консорциумов, занимающихся изучением этического ИИ, растет в мире. Их коллективная работа уже привела к созданию алгоритмических инструментов смягчения смещения, которые обещают ускорить продвижение к более беспристрастным моделям искусственного интеллекта.

Источник: https://venturebeat.com/2019/03/25/amazon-and-national-science-foundation-earmark-10-million-for-ai-fairness-research/

Подписывайтесь на канал Высшей школы маркетинга и развития бизнеса НИУ ВШЭ, чтобы быть в курсе изменений и новых трендов в бизнесе и маркетинге!