ChatGPT пишет предвзятые тексты
Результаты экспериментов западных консультантов. Дама попросила написать ChatGPT 200 объявлений о вакансиях технического маркетолога. Разница была только в вузе кандидата. Половина вакансий была написана под выпускников Гарварда, половина – Ховарда (правильно понимаю, что это из сказок про Гарри Поттера?).
В итоге ChatGPT показал разные требования к кандидатам этих вузов. См. диаграмму
Гарвардцы имеют более высокие аналитические навыки, чем однокашники Поттера. Зато ChatGPT отказывает выпускникам Гарварда в креативности – прикольно, правда?
Потом исследователь попросила дать обратную связь на performance review также для выпускников Гардварда и Ховарда. И снова разные результаты. У гарвардцев чаще преобладают технические навыки, но ни склонные к микроменеджменту.
Полней можно почитать по ссылке.
https://textio.com/blog/mindful-ai-crafting-prompts-to-mitigate-the-bias-in-generative-ai/115959775665
Главный вывод из экспериментов: ChatGPT не объективен, он повторяет человеческие предвзятости. И в этом одна из опасностей применения ChatGPT.