Найти тему

Компания Google создала расистский ИИ

Самодеструктивность

Алгоритмы искусственного интеллекта, предназначенные для обнаружения и смягчения токсичных высказываний в Интернете, включая алгоритм Perspective, созданный Google, имеют встроенные предубеждения против черных людей.

По мнению New Scientist, ученые из Вашингтонского университета обнаружили тревожную анти-черную предвзятость в инструментах ИИ, которые должны защищать маргинальные сообщества от токсичности в Интернете, демонстрируя, как благонамеренная попытка сделать Интернет безопаснее может дискриминировать и без того маргинальные сообщества.

Встроенная предвзятость

Учёные исследовали базу данных из более чем 100 000 твитов, которые были использованы для обучения алгоритмов против токсичности, согласно ещё неопубликованному исследованию. Они обнаружили, что люди, ответственные за маркировку того, был ли твит токсичным или нет, имели тенденцию отмечать твиты, написанные на афро-американском народном английском, как оскорбительные - предвзятость, которая затем распространялась на сами алгоритмы.

Команда подтвердила эту предвзятость, обучив несколько систем искусственного интеллекта в базе данных, обнаружив, что алгоритмы связывают афро-американский народный английский с разжиганием ненависти.

Последующие эффекты

Затем команда провела тестирование алгоритмов, включая «Перспективу», в базе данных из 5,4 миллиона твитов, авторы которых раскрыли свою расу. По оценкам New Scientist, алгоритмы варьировались от полутора до двух с большей вероятностью для отметки сообщений, написанных людьми, которые идентифицированы как афроамериканцы в базе данных.

Это означает, что инструменты автоматической модерации контента, скорее всего, будут заменять большое количество постов, в зависимости от этнической принадлежности их авторов, что приведет к подавлению определенных сообществ в Интернете.