Алгоритм ошибочно посчитал вас судимым — и вот вы уже не можете получить справку, устроиться на работу или оформить пособие, а объяснить причину отказа никто не в состоянии: перед вами «чёрный ящик» без логики и ответственности. Как автоматизация социальной сферы рискует превратить нашу жизнь в мир Франца Кафки, где вместо бюрократов правят потоки данных, а ИИ-психолог бессилен против фрустрации? Автоматизация принятия решений в социальной сфере открывает возможности для повышения эффективности и скорости обработки заявлений, однако она одновременно несет ряд системных рисков. Один из ключевых – вероятность ложных отказов. В комментарии RuNews24.ru политический психолог, к.п.н., доцент Финансового университета при Правительстве РФ Артур Вафин пояснил, что алгоритмы опираются на данные, которые могут быть неполными, устаревшими или некорректными, и в таких случаях система способна ошибочно лишить человека положенной ему поддержки. «Например, вам нужна справка о несудимости, а система ош
«Чёрный ящик» решил, что вы преступник: как алгоритм без логики и совести ломает судьбы, а ИИ-психолог бессильно разводит руками?
16 апреля16 апр
12
2 мин