Найти в Дзене
Science Squad

Битва за этический ИИ на крупнейшей в мире конференции по машинному обучению

Предвзятость и перспектива общественного вреда все больше мешают исследованиям в области искусственного интеллекта, но неясно, кто должен искать эти проблемы. Разнообразие и инклюзивность заняли центральное место на одной из крупнейших в мире конференций по искусственному интеллекту (AI) в 2018 году. Но после встречи с неоднозначной репутацией на прошлогодней конференции по системам обработки нейронной информации (NeurIPS) в Ванкувере, Канада, внимание стало Еще одна большая проблема в этой области: этика. Акцент делается на то, что исследования ИИ все чаще связаны с этическими противоречиями, связанными с применением его технологий, таких как предиктивная политика или распознавание лиц . Проблемы включают устранение смещений в алгоритмах , отражающих существующие модели дискриминации в данных, и недопущение воздействия на и без того уязвимые группы населения. «Нет такой вещи, как нейтральная технологическая платформа», - предупредила Селеста Кидд, психолог по развитию в Калифорнийс
Оглавление

Предвзятость и перспектива общественного вреда все больше мешают исследованиям в области искусственного интеллекта, но неясно, кто должен искать эти проблемы.

Разнообразие и инклюзивность заняли центральное место на одной из крупнейших в мире конференций по искусственному интеллекту (AI) в 2018 году. Но после встречи с неоднозначной репутацией на прошлогодней конференции по системам обработки нейронной информации (NeurIPS) в Ванкувере, Канада, внимание стало Еще одна большая проблема в этой области: этика.

Акцент делается на то, что исследования ИИ все чаще связаны с этическими противоречиями, связанными с применением его технологий, таких как предиктивная политика или распознавание лиц . Проблемы включают устранение смещений в алгоритмах , отражающих существующие модели дискриминации в данных, и недопущение воздействия на и без того уязвимые группы населения. «Нет такой вещи, как нейтральная технологическая платформа», - предупредила Селеста Кидд, психолог по развитию в Калифорнийском университете в Беркли, во время своего основного выступления NeurIPS о том, как алгоритмы могут влиять на человеческие убеждения. На собрании, которое посетили рекордные 13 000 человек, исследователи столкнулись с тем, как осмысленно рассмотреть этические и социальные последствия своей работы.

Этика разрыв

Специалисты по этике долго обсуждали влияние искусственного интеллекта и искали способы использовать технологию на благо, например, в здравоохранении. Но исследователи теперь понимают, что им нужно встраивать этику в формулировку своих исследований и понимать потенциальный вред алгоритмической несправедливости, говорит Мередит Уиттакер, исследователь ИИ в Нью-Йоркском университете и основатель Института ИИ сейчас, который стремится понять социальные последствия технологии. По ее словам, на последней версии NeurIPS исследователи не могли «писать, говорить или думать» об этих системах без учета возможного вреда для общества. «Вопрос в том, приведет ли изменение в разговоре к структурным изменениям, которые нам нужны для того, чтобы эти системы не причиняли вреда?»

Такие конференции, как NeurIPS, на которой, наряду с двумя другими ежегодными собраниями, публикуется большинство статей по ИИ, несут определенную ответственность, говорит Уиттакер. «Поле взорвалось так сильно, что не хватает конференций или рецензентов. Но все хотят, чтобы их бумаги были в наличии. Таким образом, здесь есть огромное влияние », - говорит она.

Но исследование, представленное на NeurIPS, не подвергается специальной проверке этики как части процесса проверки. Подводные камни этого были связаны с реакцией на один документ, представленный на конференции. В исследовании утверждается, что он способен генерировать лица - включая аспекты возраста, пола и этнической принадлежности человека - на основе голосов. Ученые машинного обучения критиковали его в Твиттере как за трансфобную и лженаучную.

Потенциальные решения

Одним из решений может быть введение этического обзора на конференциях. NeurIPS 2019 впервые включил контрольный перечень воспроизводимости представленных документов. В будущем, когда документы будут приняты, они также могут быть проверены на предмет ответственности, говорит Джоэл Пино, учащаяся в Университете Макгилла в Монреале, Канада, и сотрудник Facebook, работающая в оргкомитете NeurIPS и разработавшая контрольный список.

NeurIPS говорит, что комитет по этике всегда готов рассмотреть проблемы в ходе существующего процесса проверки, но он рассматривает способы сделать свою работу по этическим и социальным воздействиям более устойчивой. Предложения включают в себя просьбу к авторам сделать заявление об этике их работы и подготовку рецензентов для выявления нарушений этики. Организаторы ежегодной Международной конференции по обучению репрезентаций - еще одного из крупных совещаний AI - заявили, что после обсуждений в сообществе также обсуждалась идея рассмотрения статей с учетом этики.

ИИ теперь идет дальше: в отчете, опубликованном в прошлом месяце , он призвал к тому, чтобы все исследовательские работы по машинному обучению включали раздел о вреде для общества, а также о происхождении их наборов данных. Такие соображения должны концентрироваться на перспективах уязвимых групп, AI стремится воздействовать непропорционально, Абеба Birhane, когнитивный ученый в Университетском колледже Дублина, сказал Блэк NeurIPS'S в мастерской А.И., в котором ее исследование «реляционные этики» 1 выиграл лучшую бумагу. «Алгоритмы исключают пожилых работников, трансгендеров, иммигрантов, детей», - сказал Бирхейн, ссылаясь на использование ИИ при найме и наблюдении. Разработчики должны спросить не только, как их алгоритм может быть использован, но и нужен ли он в первую очередь, сказала она.

Бизнес влияет

Технологические компании, отвечающие за обширные исследования ИИ, также занимаются этикой своей работы (согласно одной из оценок, только Google отвечал за 12% статей в NeurIPS ). Но активисты говорят, что им нельзя позволять сойти с рук этику. Технологические компании страдают от недостатка разнообразия, и, хотя в некоторых фирмах есть персонал и целые советы, посвященные этике, участники кампании предупреждают, что они часто имеют слишком мало власти. По словам Бирхейна, их технические решения, которые включают усилия по созданию «алгоритмов debias», также часто вводят в заблуждение. Подход ошибочно предполагает, что существуют необъективные наборы данных, и алгоритмы исправления не решают основных проблем в базовых данных, говорит она.

По словам Фабиана Роджерса (Fabian Rogers), организатора сообщества из Нью-Йорка, принуждение технических компаний включать в этические группы людей из затронутых групп Роджерс представляет Ассоциацию арендаторов Atlantic Plaza Towers, которая боролась за то, чтобы помешать ее владельцу установить технологию распознавания лиц без согласия жителей. «Контекст - это все, и мы должны помнить об этом, когда говорим о технологиях. Это трудно сделать, когда у нас нет необходимых людей, чтобы предложить такую ​​точку зрения », - сказал он.

Исследователи и технические работники, находящиеся в привилегированном положении, могут выбирать, где они работают, и должны голосовать ногами, говорит Уиттакер. Она работала в Google до прошлого года, а в 2018 году организовала забастовку сотрудников Google из-за передачи фирмой исков о сексуальных домогательствах. Исследователи должны требовать, чтобы они знали, над чем в конечном итоге работают, говорит она.

Другой подход заключается в том, чтобы изменить вопросы, которые они пытаются решить, сказала Риа Каллури, ученый из Стэнфордского университета в Калифорнии. По ее словам, исследователи могут сместить власть в сторону людей, на которых влияют модели и на чьих данных они построены, путем решения научных вопросов, которые делают алгоритмы более прозрачными и позволяют неспециалистам оспаривать внутреннюю работу модели.

Понравилась статья?! Подпишись и поставь лайк, помоги развитию канала. Всем желаю удачи и успехов.

Оригинальная статья