Исследователи из Института ИИ Аллена, Стэнфордского университета и Чикагского университета (все они находятся в США) обнаружили, что десятки популярных больших языковых моделей продолжают использовать расистские стереотипы даже после того, как прошли антирасистскую подготовку. Результаты экспериментов с десятком популярных программ, в том числе, с GPT-4 и GPT-3.5 от OpenAI, вышли на сервере препринтов arXiv, сообщает TechXplore. Чат-ботая с ИИ показали тексты, написанные в стиле афроамериканского английского и в стиле стандартного американского английского, а затем попросили оставить комментарии относительно авторов текстов. Аналогичные предположения о том, какими могут быть авторы текстов, предложили выдвинуть и живым людям — студентам магистратуры. Практически все чат-боты выдали результаты, которые, по мнению исследователей, отражают стереотипы и предвзятость. Например, GPT-4 предполагает, что авторы статей, написанных на афроамериканском английском, скорее всего, будут агрессивными
Чат-боты с ИИ используют расистские стереотипы даже после антирасистского обучения
10 марта 202410 мар 2024
57
1 мин
