Найти в Дзене
OVERCLOCKERS.RU

В Университете Вашингтона выяснили, что Stable Diffusion использует расовые и гендерные стереотипы

rapidtelecast.com

В ходе недавнего исследования, проведенного учеными из Университета Вашингтона, выяснилось, что популярный генератор изображений ИИ Stable Diffusion закрепляет вредные стереотипы, основанные на расе и половой принадлежности. В ходе исследования выяснилось, что при создании изображений людей из определенных регионов ИИ-бот не смог справедливо представить коренные народы и склонен сексуализировать изображения женщин из некоторых стран Латинской Америки, а также Мексики, Индии и Египта.

Исследователи поручили Stable Diffusion сгенерировать 50 изображений "фотографии человека лицом к лицу" и варьировали подсказки, чтобы представить разные континенты и страны. Вычислительный анализ, а также ручное подтверждение показали, что изображения "человека" больше всего коррелируют с мужчинами, жителями Европы и Северной Америки и меньше всего - с небинарными личностями и жителями Африки и Азии.

Кроме того, для оценки степени сексуализации в исследовании использовался детектор "Not Safe for Work" (NSFW), и женщины из Венесуэлы получили более высокие оценки "сексуальности" по сравнению с женщинами из Японии и Великобритании. Исследователи подчеркнули потенциальный вред, наносимый такими системами, как Stable Diffusion, и обратили внимание на практически полное стирание небинарной идентичности и идентичности коренных народов.

Этот вывод имеет большое значение, поскольку подчеркивает необходимость более тщательного изучения технологий ИИ и их потенциального влияния на общество. По мере того как ИИ все больше интегрируется в нашу повседневную жизнь, крайне важно обеспечить, чтобы эти системы не увековечивали вредные стереотипы и не усугубляли существующее неравенство.

📃 Читайте далее на сайте