Сообщает ScienceDaily, исследователи из Уорикского университета (University of Warwick), Лондонского имперского колледжа (Imperial College London), EPFL (Лозанна) и Sciteb Ltd разработали «принцип неэтичной оптимизации», что помогает искусственному интеллекту выявлять и отбраковывать «неэтичные» схемы работы с потребителями и людьми в целом.
В своей научной работе, изданием Royal Society Open Science, которая так и называется «Принцип неэтичной оптимизации», ученые описали некоторые подробности построения принципов выбора «этичных», соответствующих принятым моральным нормам и "для галочки" законам стратегий, которые могут быть применены для коммерческой и иной работы с пользователями тех или иных сервисов, потребителями услуг и покупателями товаров.
В качестве примера тех самых схем приводится, например, следующая, описанная британской газетой, которая провела в 2018 году опыт и выяснила, что если вносить данные в калькулятор страховой компании, то при внесении имени Мохаммед Сми