Добавить в корзинуПозвонить
Найти в Дзене
NeuroNest

Петербург на распознавании: камеры учат город видеть «этничность» - какой ценой?

Сколько раз ты проходил мимо уличной камеры, думая, что она просто пишет картинку для архива? Ну, знаешь, на случай если кто-то припаркуется на газоне или уронит кошелек. Так вот, в Санкт-Петербурге около 50 тысяч таких «глаз» теперь пытаются угадать, откуда родом твои предки. Это не шутка и не сценарий для новой серии «Черного зеркала». Это модуль видеоаналитики, который уже работает и помогает полиции искать «резиновые квартиры». Город-сканер: контекст и актуальность Все началось с будничного заявления зампреда комитета по информатизации Игоря Никонова на «нулевых чтениях» бюджета. Между делом чиновник обмолвился, что одна из функций системы «Безопасный город» - это «распознавание нескольких видов рас, национальностей». Звучит как апгрейд для смартфона, но на деле - это масштабное внедрение технологии, от которой в Европе шарахаются как от огня. Пока мы обсуждали курс рубля, половина камер культурной столицы научилась сортировать людей по шести условным категориям внешности. И главн

Сколько раз ты проходил мимо уличной камеры, думая, что она просто пишет картинку для архива? Ну, знаешь, на случай если кто-то припаркуется на газоне или уронит кошелек. Так вот, в Санкт-Петербурге около 50 тысяч таких «глаз» теперь пытаются угадать, откуда родом твои предки. Это не шутка и не сценарий для новой серии «Черного зеркала». Это модуль видеоаналитики, который уже работает и помогает полиции искать «резиновые квартиры».

Город-сканер: контекст и актуальность

Все началось с будничного заявления зампреда комитета по информатизации Игоря Никонова на «нулевых чтениях» бюджета. Между делом чиновник обмолвился, что одна из функций системы «Безопасный город» - это «распознавание нескольких видов рас, национальностей». Звучит как апгрейд для смартфона, но на деле - это масштабное внедрение технологии, от которой в Европе шарахаются как от огня. Пока мы обсуждали курс рубля, половина камер культурной столицы научилась сортировать людей по шести условным категориям внешности. И главная интрига - никто не показал, насколько точно эта штука работает.

Как это работает, на пальцах

Представь, что камера - это очень быстрый, но не очень умный вахтер, который вместо пропуска смотрит на твое лицо. Сначала она захватывает изображение. Затем нейросеть, обученная на миллионах фотографий, анализирует черты: разрез глаз, форму носа, скулы. На выходе она не пишет «казах» или «норвежец», а ставит галочку в одной из шести коробок: «европеец», «азиат», «кавказец» и так далее. Это как фильтры в соцсетях, только вместо кошачьих ушек на тебя вешают ярлык «условный среднеазиат», и этот ярлык улетает в базу данных. Цель, как говорят власти, - заметить, если в одном дворе вдруг стало слишком много людей из одной «коробки».

Человеческое лицо этого апгрейда

За технологией всегда стоят люди. С одной стороны - чиновники вроде Игоря Никонова, для которых это просто новый инструмент для управления сложной миграционной ситуацией. Прагматичный подход: есть проблема - вот технологическое решение. С другой - правозащитники и даже глава СПЧ Валерий Фадеев, который еще на старте проекта называл идею унижающей достоинство. Получается классический конфликт: эффективность против этики. Пока одни рапортуют о миллионных контрактах и тысячах подключенных камер, другие напоминают, что цена ошибки такого алгоритма - это не просто баг в коде, а сломанная судьба или как минимум неприятный разговор с участковым.

Мировой расклад: пока мы внедряем, они - запрещают

Теперь самое интересное. Пока в Питере вешали камеры с «этническим фильтром», в Евросоюзе со 2 февраля 2025 года вступил в силу AI Act. Этот закон прямым текстом запрещает «биометрические системы категоризации», которые определяют расу, политические взгляды или другие чувствительные признаки. В Брюсселе решили, что риски дискриминации и создания цифрового гетто перевешивают любую пользу. Получается, Россия идет вразрез с главным мировым трендом на цифровую гигиену. Мы внедряем то, что «первый мир» счел слишком токсичным даже для борьбы с терроризмом.

Российская специфика: между законом и безопасностью

У нас как всегда, свой путь. Федеральный закон 152-ФЗ «О персональных данных» относит расовую и национальную принадлежность к специальным категориям. Их обработка по умолчанию запрещена. Но, как водится, есть оговорки для нужд безопасности и правопорядка. Именно на этой тонкой грани и балансирует питерский проект. Власти говорят: «это для профилактики», а юристы качают головой и спрашивают: «а где методика, где оценка точности, где процедура обжалования, если нейросеть ошиблась?». Без ответов на эти вопросы технология выглядит как цифровой молоток, которым можно и гвоздь забить, и по пальцам съездить.

Что это даст обычному человеку?

Давай без иллюзий. Для законопослушного жителя или туриста эта система в лучшем случае останется невидимой. В худшем - станет источником постоянного стресса. Представь: ты снимаешь квартиру с друзьями, которые приехали из другой страны. Алгоритм видит «концентрацию» и отправляет сигнал участковому. Дальше - проверка, допросы соседей, косые взгляды. Ошибка? Возможно. Но нервы тебе уже потрепали. Система, заточенная на поиск «анклавов», неизбежно будет смотреть с подозрением на любого, кто выглядит «не так», как большинство в этом районе.

Скептический взгляд: а оно того стоит?

Да, бороться с нелегальной миграцией и «резиновыми квартирами» надо. Но не ценой создания системы, которая по умолчанию делит людей на сорта по внешним признакам. Главный аргумент скептиков - такие алгоритмы исторически плохо работают с лицами неевропейской внешности. Доля ошибок может быть критически высокой. Власти обещают статистику эффективности к концу года, но пока это похоже на покупку дорогого лекарства с неизвестными побочными эффектами. А что, если вреда от «лечения» будет больше, чем от самой «болезни»?

-2

Личный вывод: гильотина от головной боли

Для меня вся эта история - про опасный соблазн решить сложную социальную проблему простой технологической «таблеткой». Вместо того чтобы работать с причинами миграционных проблем, мы вешаем камеры, которые будут вычислять следствия. Это как лечить головную боль гильотиной - проблема вроде решена, но последствия могут быть необратимыми. Технология не бывает хорошей или плохой, но ее применение без прозрачности, аудита и общественного контроля превращает «Безопасный город» в очень неуютное место.

Финальный вопрос

Как думаете, где та грань, за которой «Безопасный город» превращается в «Большого брата» с национальным акцентом?