ИИ, обучаемый на основе текста, написанного людьми, приобретает “психологические черты” этих людей. К такому выводу пришли авторы сразу нескольких исследований. В январе 2024 года Немецкие учёные из Мангеймского университета и Института социальных наук Лейбница обнаружили, что ChatGPT и некоторые другие системы ИИ на основе больших языковых моделей непредумышленно воспроизводят гендерные стереотипы при заполнении психометрических анкет. Такие анкеты используются для того, чтобы при помощи оценки языка выявить “психологический профиль”, который имитирует ИИ. “[...] LLM непреднамеренно, но неизбежно приобретают психологические черты (образно говоря) из огромной базы текстов, на которых они обучаются. Такие базы содержат сведения о личностях, ценностях, верованиях и предубеждениях бесчисленных людей [...]”, — говорится в кратком содержании к исследовательской статье. Авторы также высказывают своё опасение, что “черты, которые LLM имитируют таким образом, потенциально могут влиять на их р
Искусственный интеллект способствует укоренению гендерных и расовых стереотипов
27 июня 202427 июн 2024
10
2 мин