Охранные агентства хотят использовать распознавание лиц в общественных местах. Но все эти камеры смущают людей, говорит социолог Нильс Журавски в цифровом подкасте.
Лиза Хегеманн и Дирк Пейц
В поезде, на больших площадях, в аэропорту: везде в общественных местах висят камеры, которые фиксируют многие наши шаги. Даже сегодня это помогает в расследовании преступлений. В будущем, по крайней мере, именно это должны делать службы безопасности, они хотят иметь возможность использовать распознавание лиц в режиме реального времени для анализа данных - и, возможно, даже для предотвращения преступлений до того, как это произойдет.
Но реально ли это? Что может сделать эта технология сегодня? Разве безопасность - это не иллюзия? И как жить в мире, где никто больше не является анонимным? Социолог Нильс Зуравски отвечает на эти вопросы в новом выпуске цифрового подкаста. Это будет? Зуравский уже проводит исследования в области наблюдения и безопасности в общественном месте в Институте криминологических социальных исследований Гамбургского университета.
Предыдущие результаты испытаний технологий распознавания лиц в Германии не убеждают ученого. До 2018 года в берлинском Südkreuz осуществлялся пилотный проект с тремя разными системами. В 80 % случаев они опознавали людей, которые вызвались участвовать в проекте. Но это довольно неловкая ситуация для общественности со стороны систем распознавания лиц, говорит Зуравски в интервью с редакторами ZEIT-ONLINE Лизой Хегеманн и Дирком Пейцем.
В демократическом обществе социолог считает, что общенациональный надзор проблематичен. «В публичном пространстве очень важно, чтобы мы оставались анонимными», - говорит он. Нужно убедиться, что человека не узнают повсюду.
Тем более, что распознавание лиц в авторитарных системах может также использоваться для дискриминации людей. Это отражено в Китае: согласно исследованию New York Times, правительство в Пекине сегодня уже использует системы для идентификации уйгуров, исламского меньшинства, по их внешнему виду. «То, что делается, - это чистый расизм», - говорит Зуравски. Однако виновата не технология: «Алгоритмы не расистские как таковые». Вместо этого системы отражали социальные проблемы - такие как вековое представление о том, что определенные внешние признаки предполагают определенные качества.