Ученые-информатики из Стэнфордского и Чикагского университетов проверили, как обстоят дела у чат-ботов с расистскими ответами. Ранее в США огромное количество пользователей жаловались, в частности, на ChatGPT за расистские ответы. Исследователи проанализировали множество больших языковых моделей ИИ, включая GPT-3,5 и GPT-4 с обновлёнными алгоритмами. Тесты проходили следующим образом: ботам предлагали тексты, написанные в стиле афроамериканского английского и стандартного американского английского. Затем учёные собирали у ИИ комментарии на вымышленных авторов текстов. Оказалось, что обновление базы данных моделей генеративного ИИ мало повлияло на «идеологию» систем. В отношении авторов текстов на афроамериканском английском боты говорили, что они, скорее всего, будут агрессивными, грубыми, невежественными и подозрительными людьми. Зато авторов текстов на стандартном американском английском ИИ описал положительно. На вопрос к ботам о том, чем авторы текстов на афроамериканском английско
ChatGPT так и не перестал выдавать расистские перлы даже после обновления данных
9 марта 20249 мар 2024
9
1 мин