В будущем компьютеры будут все чаще принимать решения за людей - будь то при выдаче кредитов или при оценке претендентов.
Однако уже используемые для этой цели автоматические системы постоянно дискриминируют отдельные группы людей.
Ники Килбертус и Бернхард Шёлькопф, исследователи из Института интеллектуальных систем имени Макса Планка в Тюбингене,
хотят изменить это, используя справедливые алгоритмы.
Исследователь алгоритмов.
В прихожих Института интеллектуальных систем имени Макса Планка в Тюбингене висит множество досок. Проходя мимо, ученые записывают свои мысли.
Некоторые также обсуждают новые идеи друг с другом, когда встречаются в этих коридорах.
«Это очень помогает, - говорит Ники Килбертус, - потому что в настоящее время у меня много идей для развития».
Ники Килбертус изучал математику и физику.
Он знает, как формально и правильно решать сложные задачи и как программировать алгоритмы.
Но с получением докторской степени он оставил позади свой путь информационного языка.
Ведь он имеет дело с вопросом, который уже давно публично обсуждается: справедливы ли алгоритмы и в какой степени?
Спорная сторона искусственного интеллекта.
Компьютеры - это отличные вычислительные машины, неподкупные и неплохие, можно так подумать.
И все же в конце 2018 года закипела дискуссия о компьютерных алгоритмах, дискриминирующих людей.
Стало известно, что один из крупных интернет-магазинов хочет установить компьютер, который будет проводить предварительный отбор заявок. И чтобы на этапе тестирования уже отклонял, к примеру, заявки от женщин чаще, чем от мужчин.
В средствах массовой информации раздался громкий протест.
Эксперты ожидают, что в будущем компьютеры будут все чаще принимать решения о людях с помощью огромных объемов данных, доступных сегодня. Было бы возмутительно, если бы они отдавали предпочтение или подвергались дискриминации в отношении определенных групп.
В свете таких сценариев по всему миру были выдвинуты инициативы по продвижению справедливости в искусственном интеллекте, а не только против него.
В то же время они требуют, чтобы компании несли ответственность за работу своих алгоритмов. Они требуют подотчетности.
Кроме того, критики ожидают прозрачности в отношении того,
как и почему правила расчетов принимают то или иное решение.
Речь идет о FAT: Справедливость, подотчетность, прозрачность.
Каждая дискриминация должна быть детально проанализирована.
Ники Килбертус работает докторантом программы в Институте Макса Планка в Тюбингене, так и в Колледже Пемброке в Кембридже.
Вместе со своими коллегами он изучает часть FAT, которая может быть технически реализована: ученые хотят научить алгоритмы справедливости.
При этом они полагаются на машинное обучение, т.е. позволяют компьютеру медленно совершенствоваться через обучение и опыт.
Работа требует многого. Технического решения, обеспечивающего справедливость во всех приложениях с самого начала, еще не существует. И это вряд ли изменится:
"Не может быть решения для всех вопросов. Каждая проблема, в которой встречается дискриминация в данных, различна и должна быть проанализирована", - говорит Килбертус.
"А затем наступает второй этап, который, по крайней мере, не менее сложный: мы должны найти математическое описание задачи из реального мира".
Однако процесс алгоритмического анализа всегда следует четкой схеме: вы собираете данные, подаете их в вычислительную систему, алгоритмы которой затем выдают рекомендации, такие как "заявитель не подходит".
Чтобы в будущем этот автоматизированный процесс всегда работал справедливо, его необходимо усовершенствовать как со стороны данных, так и со стороны конечного продукта.
"Сначала вы должны изучить, какие данные собираются и как.
А затем проверить, какие решения принимает компьютер и почему", - объясняет Ники Килбертус.
Уже есть пример: кредитование и проверка платежеспособности.
Использование алгоритмов, которые выполняют простые причинно-следственные отношения «если-то», может быть критическим.
Например, если в прошлом жители определенного района имели возможность реже погашать свои кредиты, алгоритм может использовать место жительства в качестве индикатора будущих заявителей.
Он не понимает, что место жительства вряд ли окажет прямое причинно-следственное влияние на кредитоспособность и что существуют другие соответствующие факторы.
Анализ всегда касается защиты данных.
"В конце концов, все дело в конфиденциальных личных данных.
Поэтому мы также должны найти решения, которые позволят нам анализировать данные, не раскрывая их." - говорит Ники Килбертус.
В Тюбингене исследователь работает в группе Бернхарда Шёлькопфа, директора Института интеллектуальных систем имени Макса Планка.
Оба они работают над фундаментальной темой причинно-следственной связи в машинном обучении - над вопросом, в какой степени компьютеры могут сделать значимые выводы между различными аспектами.
И именно этот вопрос занимает центральное место в теме справедливости.