Найти тему
Во власти общества

Алгоритм вычислительных машин за справедливость.

https://unsplash.com/photos/OqtafYT5kTw
https://unsplash.com/photos/OqtafYT5kTw

В будущем компьютеры будут все чаще принимать решения за людей - будь то при выдаче кредитов или при оценке претендентов.

Однако уже используемые для этой цели автоматические системы постоянно дискриминируют отдельные группы людей.

Ники Килбертус и Бернхард Шёлькопф, исследователи из Института интеллектуальных систем имени Макса Планка в Тюбингене,
хотят изменить это, используя
справедливые алгоритмы.

Исследователь алгоритмов.

В прихожих Института интеллектуальных систем имени Макса Планка в Тюбингене висит множество досок. Проходя мимо, ученые записывают свои мысли.

Некоторые также обсуждают новые идеи друг с другом, когда встречаются в этих коридорах.

«Это очень помогает, - говорит Ники Килбертус, - потому что в настоящее время у меня много идей для развития».

Ники Килбертус изучал математику и физику.
Он знает, как формально и правильно решать
сложные задачи и как программировать алгоритмы.

Но с получением докторской степени он оставил позади свой путь информационного языка.

Ведь он имеет дело с вопросом, который уже давно публично обсуждается: справедливы ли алгоритмы и в какой степени?

Спорная сторона искусственного интеллекта.

Компьютеры - это отличные вычислительные машины, неподкупные и неплохие, можно так подумать.

И все же в конце 2018 года закипела дискуссия о компьютерных алгоритмах, дискриминирующих людей.

Стало известно, что один из крупных интернет-магазинов хочет установить компьютер, который будет проводить предварительный отбор заявок. И чтобы на этапе тестирования уже отклонял, к примеру, заявки от женщин чаще, чем от мужчин.

В средствах массовой информации раздался громкий протест.

Эксперты ожидают, что в будущем компьютеры будут все чаще принимать решения о людях с помощью огромных объемов данных, доступных сегодня. Было бы возмутительно, если бы они отдавали предпочтение или подвергались дискриминации в отношении определенных групп.

В свете таких сценариев по всему миру были выдвинуты инициативы по продвижению справедливости в искусственном интеллекте, а не только против него.

В то же время они требуют, чтобы компании несли ответственность за работу своих алгоритмов. Они требуют подотчетности.

Кроме того, критики ожидают прозрачности в отношении того,
как и почему правила расчетов принимают то или иное решение.

Речь идет о FAT: Справедливость, подотчетность, прозрачность.

https://unsplash.com/photos/FlPc9_VocJ4
https://unsplash.com/photos/FlPc9_VocJ4

Каждая дискриминация должна быть детально проанализирована.

Ники Килбертус работает докторантом программы в Институте Макса Планка в Тюбингене, так и в Колледже Пемброке в Кембридже.

Вместе со своими коллегами он изучает часть FAT, которая может быть технически реализована: ученые хотят научить алгоритмы справедливости.

При этом они полагаются на машинное обучение, т.е. позволяют компьютеру медленно совершенствоваться через обучение и опыт.

Работа требует многого. Технического решения, обеспечивающего справедливость во всех приложениях с самого начала, еще не существует. И это вряд ли изменится:

"Не может быть решения для всех вопросов. Каждая проблема, в которой встречается дискриминация в данных, различна и должна быть проанализирована", - говорит Килбертус.
"А затем наступает второй этап, который, по крайней мере, не менее сложный: мы должны найти математическое описание задачи из реального мира".

Однако процесс алгоритмического анализа всегда следует четкой схеме: вы собираете данные, подаете их в вычислительную систему, алгоритмы которой затем выдают рекомендации, такие как "заявитель не подходит".

Чтобы в будущем этот автоматизированный процесс всегда работал справедливо, его необходимо усовершенствовать как со стороны данных, так и со стороны конечного продукта.

"Сначала вы должны изучить, какие данные собираются и как.
А затем проверить, какие решения принимает компьютер и почему", - объясняет Ники Килбертус.

Уже есть пример: кредитование и проверка платежеспособности.

Использование алгоритмов, которые выполняют простые причинно-следственные отношения «если-то», может быть критическим.

Например, если в прошлом жители определенного района имели возможность реже погашать свои кредиты, алгоритм может использовать место жительства в качестве индикатора будущих заявителей.

Он не понимает, что место жительства вряд ли окажет прямое причинно-следственное влияние на кредитоспособность и что существуют другие соответствующие факторы.

Анализ всегда касается защиты данных.

"В конце концов, все дело в конфиденциальных личных данных.
Поэтому мы также должны найти решения, которые позволят нам анализировать данные, не раскрывая их." - говорит Ники Килбертус.

В Тюбингене исследователь работает в группе Бернхарда Шёлькопфа, директора Института интеллектуальных систем имени Макса Планка.

Оба они работают над фундаментальной темой причинно-следственной связи в машинном обучении - над вопросом, в какой степени компьютеры могут сделать значимые выводы между различными аспектами.

И именно этот вопрос занимает центральное место в теме справедливости.