Самодеструктивность Алгоритмы искусственного интеллекта, предназначенные для обнаружения и смягчения токсичных высказываний в Интернете, включая алгоритм Perspective, созданный Google, имеют встроенные предубеждения против черных людей. По мнению New Scientist, ученые из Вашингтонского университета обнаружили тревожную анти-черную предвзятость в инструментах ИИ, которые должны защищать маргинальные сообщества от токсичности в Интернете, демонстрируя, как благонамеренная попытка сделать Интернет безопаснее может дискриминировать и без того маргинальные сообщества. Встроенная предвзятость Учёные исследовали базу данных из более чем 100 000 твитов, которые были использованы для обучения алгоритмов против токсичности, согласно ещё неопубликованному исследованию. Они обнаружили, что люди, ответственные за маркировку того, был ли твит токсичным или нет, имели тенденцию отмечать твиты, написанные на афро-американском народном английском, как оскорбительные - предвзятость, которая затем ра