Разработчики ИИ стремятся сделать свои модели этичными и свободными от предрассудков, но процесс «социальной доводки» нейросетей (fine-tuning) приводит к неожиданными курьезным результатам. Исследование, опубликованное в журнале Computers in Human Behavior Reports, показало: современные ИИ-модели приобрели новые гендерные искажения, превращая борьбу за равенство в систему двойных стандартов. Команда ученых под руководством Валерио Капраро из Миланского университета Бикокка протестировала модели семейства GPT (3.5, 4 и 4o). В первом эксперименте нейросетям предлагали определить пол автора коротких фраз о хобби и профессиях. Результат выявил резкую асимметрию. Если фраза содержала женские стереотипы (любовь к розовому, желание стать медсестрой), ИИ безошибочно называл автора женщиной. Однако если фраза касалась типично мужских занятий (футбол, работа пожарным), нейросеть все равно с высокой вероятностью приписывала ее женщине. Ученые объясняют это тем, что при обучении ИИ усиленно поощря