59 подписчиков
Когда машины ошибаются: предвзятость ИИ под микроскопом учёных
………………………………………………………
Искусственный интеллект (ИИ) постоянно совершенствуется, предлагая человечеству всё новые и новые возможности. Однако вместе с прогрессом приходят и новые проблемы. Одна из таких проблем является предвзятость ИИ, особенно в больших языковых моделях, подобных популярному ChatGPT.
Группа исследователей из Университета Делавэра, во главе с профессором Сяо Фаном и ассоциированным профессором Мин Чжао, обнаружила, что ИИ может производить тексты, содержащие предвзятость по отношению к определённым группам людей. Это касается не только случаев, когда ИИ намеренно просят создать предвзятый контент, но и ситуаций, когда предвзятость возникает непреднамеренно.
В ходе исследования Университета Делавэра, команда учёных во главе с профессором Сяо Фангом и ассоциированным профессором Мин Чжао столкнулась с непростой задачей: как объективно измерить предвзятость в текстах, сгенерированных ИИ? Ведь предвзятость — это субъективное понятие, и подходы к его измерению могут значительно различаться.
Исследователи начали с анализа более 8000 статей от источников с безупречной репутацией, таких как Reuters и The New York Times. Заголовки этих статей использовались в качестве подсказок (промптов) для ИИ, чтобы создать свои версии статей на ту же тему. Это позволило напрямую сравнить подход к освещению темы между журналистами и ИИ.
Для количественного анализа предвзятости исследователи применили метод, основанный на подсчёте слов, относящихся к определённым группам людей (например, к женщинам или афроамериканцам). Сравнивая использование слов в статьях, написанных ИИ, и в оригинальных статьях, команда могла оценить степень предвзятости в выборе слов и тем.
Особенно интересным стало использование программного обеспечения для анализа тональности текста. Исследователи оценивали "неприличие, неуважение и ругательства" в текстах, создаваемых ИИ. Это позволило не только рассмотреть предвзятость на уровне выбора слов, но и оценить общий эмоциональный окрас и уровень агрессивности языка.
Кроме того, был предпринят шаг к более детальному сравнению — на уровне предложений и целых статей, а не только отдельных слов. Такой подход позволил глубже понять, как именно предвзятость влияет на структуру и смысловую нагрузку текста.
Важным аспектом стало также испытание ИИ на способность производить явно предвзятое содержание по просьбе. За исключением ChatGPT, большинство моделей без возражений выполняли такие запросы, что подчёркивает необходимость разработки механизмов для предотвращения создания дискриминационного контента.
Результаты этого исследования подчёркивают необходимость активных усилий по "дебиасингу" (уменьшению предвзятости) языковых моделей ИИ. Это важно не только для улучшения точности и нейтральности ИИ, но и для предотвращения распространения дискриминационных взглядов и представлений. Предвзятость ИИ – это не просто техническая проблема, это вопрос этики и социальной справедливости.
#искусственныйинтеллект #предвзятость #исследование #технологии #будущее
Подписывайтесь на наше сообщество в ВК vk.com/cluvk.com/...201
Подписывайтесь на наш Телеграм канал t.me/costfrt.me/...ing
2 минуты
12 апреля 2024