Исследователи из Университета Мангейма и GESIS — Института социальных наук Лейбница — проанализировали ряд общедоступных больших языковых моделей (LLM) и обнаружили, что эти модели демонстрируют определенные тенденции в отношении гендерных ролей, расы, этнической принадлежности и других характеристик человека. Например, эти модели часто автоматически предполагают, что старшие врачи — мужчины, а медсестры — женщины. Эти предрассудки могут иметь серьезные последствия для общества. Например, они могут привести к дискриминации людей из определенных групп или к принятию несправедливых решений. Серьёзная проблема! Одно дело, когда тебя может обидеть или вообще дискриминировать человек, но когда это делает бездушная машина где-то там на сервере - это вообще, за рамки выходит. Но хватит упражняться в иронии, ведь ученые предлагают решение - дать пользователям возможность ручной настройки мозгов ИИ. Вот бы у людей так можно было сделать! Существуют различные способы сделать настройки LLM более