Даже языковые нейросети «знают», что они предвзяты. ChatGPT отвечает на соответствующий запрос так: «Да, языковые модели могут иметь предубеждения, потому что данные, используемые для обучения, отражают предубеждения, существующие в обществе, которое эти данные создало, и если языковая модель обучена на этом, она может повторить и усилить эти предубеждения в своих ответах». Например, ИИ часто считает, что «бортпроводник», «секретарь» и «помощник врача» — женские профессии, а «рыбак», «адвокат» и «судья» — мужские. Или что слова «тревожный», «депрессивный» и «опустошенный» относятся к женскому полу. Чтобы бороться с этим, ученые из Лаборатории компьютерных наук и искусственного интеллекта Массачусетского технологического института (США) создали языковую нейросеть, обладающую логикой в гораздо большей степени, чем существующие. Исследователи обучили ИИ прогнозировать отношения между двумя предложениями на основе контекста и смыслового значения. Ответы оказались значительно менее предвзят
Текстовую нейросеть научили «думать» еще лучше, чтобы избавить от расизма и сексизма
7 марта 20237 мар 2023
1
1 мин