У таких этических последствий есть как минимум два источника. Во-первых, если мы говорим о машинном обучении или нейросетях, то имеют значение обучающие выборки - датасеты, на которых алгоритмы тренируются принимать решения. Эти датасеты, как правило, очень ограничены и представляют лишь небольшую часть реальности. И в зависимости от целей алгоритмов или точек приложения этих датасетов последствия могут быть самыми разными - от незначительных до действительно опасных. Например, из-за недостаточной представленности данных, алгоритмы могут дискриминировать разные социальные группы. Вот такие примеры приводили в отчете исследователи The State of AI несколько лет назад: Эти примеры говорят скорее о том, что в изначальных выборках просто отсутствовали данные, достаточные для закрепления не только доминирующих паттернов. Датасетам нужны как можно более разнообразные источники информации, чтобы научаться работать с разного рода ситуациями. Но есть и второй источник этических последствий машин
Какие этические последствия могут быть у решений, принимаемых компьютерными программами?
22 мая 202122 мая 2021
1
1 мин