Добавить в корзинуПозвонить
Найти в Дзене
Вам Telegram и не только

Лицо как пропуск: почему биометрия — самый опасный пароль в истории или удобство, которое стоит дороже, чем кажется

Статью писала долго, она возможно получилась большой. Все данные находятся в открытом доступе, я просто попыталась их собрать в одно целое. Московское метро, 2024 год. Пассажир проходит через турникет, не доставая ни телефон, ни карту — система Face Pay за долю секунды считывает лицо и списывает плату за проезд. К концу 2023 года сервисом воспользовались более 30 миллионов раз. Удобно. Элегантно. Незаметно. Но именно в этой незаметности скрывается проблема. Каждый такой проход — это передача уникального биологического идентификатора, который, в отличие от банковской карты, невозможно перевыпустить. Пароль от почты можно придумать заново за минуту. Номер телефона — сменить за день. Лицо — никогда. Мы добровольно превращаем собственную внешность в ключ, который нельзя выбросить и нельзя переточить, даже если его скопирует кто-то посторонний. Постепенно, почти неосязаемо, мы вступаем в эпоху, где приватность перестаёт быть правом, а становится роскошью — доступной лишь тем, кто сознательн
Оглавление

Статью писала долго, она возможно получилась большой.

Все данные находятся в открытом доступе, я просто попыталась их собрать в одно целое.

1. Вместо вступления

Московское метро, 2024 год. Пассажир проходит через турникет, не доставая ни телефон, ни карту — система Face Pay за долю секунды считывает лицо и списывает плату за проезд. К концу 2023 года сервисом воспользовались более 30 миллионов раз. Удобно. Элегантно. Незаметно.

Но именно в этой незаметности скрывается проблема. Каждый такой проход — это передача уникального биологического идентификатора, который, в отличие от банковской карты, невозможно перевыпустить. Пароль от почты можно придумать заново за минуту. Номер телефона — сменить за день. Лицо — никогда. Мы добровольно превращаем собственную внешность в ключ, который нельзя выбросить и нельзя переточить, даже если его скопирует кто-то посторонний.

Постепенно, почти неосязаемо, мы вступаем в эпоху, где приватность перестаёт быть правом, а становится роскошью — доступной лишь тем, кто сознательно от неё отказался.

2. Анатомия распознавания: как камера видит то, чего не видите вы

Когда камера направлена на человеческое лицо, она не воспринимает ни красоты, ни выражения эмоций. Для алгоритма лицо — это матрица пикселей: значения яркости, цветовых каналов, контраста. Дальше начинается работа свёрточных нейронных сетей, которые послойно извлекают из этого массива всё более сложные закономерности.

На первых слоях сеть обнаруживает элементарные паттерны — грани, перепады освещения, линии. Глубже формируются составные структуры: контур глаз, форма скул, расстояние между зрачками, геометрия челюсти. На выходе лицо сжимается в компактный цифровой вектор — набор из сотен или тысяч числовых координат, математическую «выжимку» вашей внешности.

Технология Apple Face ID, представленная в 2017 году, работает иначе, чем обычная камера. Инфракрасный проектор выбрасывает на лицо сетку из 30 000 точек, формируя трёхмерную карту рельефа. Полученная модель сравнивается с эталоном, хранящимся в защищённом чипе Secure Enclave. По заявлению Apple, вероятность ложного срабатывания составляет менее одного случая на миллион — для сравнения, у сканера отпечатков Touch ID этот показатель был один к пятидесяти тысячам.

Однако за впечатляющей точностью скрывается фундаментальная проблема. Современные глубокие нейросети функционируют по принципу «чёрного ящика»: они выдают результат, но не объясняют логику решения. Исследователи из Массачусетского технологического института ещё в 2018 году предупреждали, что невозможность интерпретировать работу таких систем делает их аудит крайне затруднительным. Алгоритм «уверен», что узнал вас, — но почему именно, не может объяснить даже его создатель.

3. Необратимость: главный изъян биометрической защиты

В 2019 году исследователи из израильской компании vpnMentor обнаружили в открытом доступе базу данных системы безопасности BioStar 2, принадлежащей корейской компании Suprema. Утечка затронула более миллиона записей с отпечатками пальцев, данными распознавания лиц, незашифрованными паролями и персональной информацией сотрудников компаний и государственных организаций из десятков стран. Пароли пострадавших сменили за несколько часов. Биометрические данные остались скомпрометированными навсегда — их невозможно «перевыпустить».

Именно в этом заключается коренное отличие биометрии от любых других средств идентификации. Пароль существует в пространстве абстракций — его можно уничтожить и создать заново. Лицо принадлежит физическому миру и неотделимо от своего владельца.

Между тем масштабы сбора биометрических данных стремительно растут. Компания Clearview AI к 2023 году накопила базу из более чем 30 миллиардов фотографий, собранных из открытых источников — социальных сетей, новостных сайтов, видеоплатформ. Система позволяет загрузить снимок любого человека и за секунды найти другие его фотографии в интернете с привязкой к контексту: где сделаны, когда опубликованы, рядом с кем человек находился. В 2022 году Управление информационного комиссара Великобритании оштрафовало Clearview AI на 7,5 миллиона фунтов стерлингов и потребовало удалить данные британских граждан. Французская комиссия CNIL назначила штраф в 20 миллионов евро. Но компания продолжает работать, обслуживая более 3 100 государственных агентств, включая подразделения ФБР, Министерства внутренней безопасности США и Интерпола.

В Китае биометрическая идентификация давно перестала быть инструментом отдельных сервисов и превратилась в элемент государственной инфраструктуры. По данным исследования Comparitech за 2021 год, в стране функционирует более 600 миллионов камер видеонаблюдения — примерно одна камера на каждых двух-трёх жителей. Системы распознавания лиц интегрированы с базами данных о финансовых транзакциях, перемещениях общественным транспортом, кредитной историей и так называемым социальным рейтингом. Человек перестаёт быть анонимным участником городской среды и превращается в постоянно отслеживаемый объект, чьё поведение фиксируется, оценивается и архивируется.

4. Предвзятость в коде: когда алгоритм дискриминирует

В 2018 году исследовательница Джой Буоламвини из MIT Media Lab и специалист по информатике Тимнит Гебру опубликовали работу «Gender Shades», которая стала поворотной точкой в дискуссии о справедливости алгоритмов. Они протестировали коммерческие системы распознавания лиц от Microsoft, IBM и Face++ (Megvii) и обнаружили драматический разрыв в точности. Для светлокожих мужчин частота ошибок составляла менее одного процента. Для темнокожих женщин — до 34,7%. Алгоритмы ошибались в определении пола темнокожих женщин в десятки раз чаще, чем в случае белых мужчин.

Причина — не злой умысел разработчиков, а структура обучающих данных. Если датасет на 80% состоит из фотографий людей одного фенотипа, нейросеть неизбежно «заточится» под него, а всех остальных будет обрабатывать с повышенной погрешностью. Технология наследует предубеждения тех, кто собирал данные для её обучения.

Последствия таких ошибок выходят далеко за пределы статистических таблиц. В июне 2020 года в Детройте был задержан Роберт Уильямс — афроамериканец, которого полицейский алгоритм ошибочно идентифицировал как подозреваемого в краже часов из магазина. Уильямса арестовали на глазах у жены и двух маленьких дочерей, провели в полицейском участке 30 часов и отпустили лишь после того, как следователь признал, что «компьютер, видимо, ошибся». Это стал первый публично задокументированный случай ложного ареста на основании системы распознавания лиц в США, но, по оценкам правозащитников, далеко не единственный.

Риски простираются далеко за рамки правоохранительной деятельности. Страховые компании экспериментируют с анализом фотографий клиентов для оценки рисков — выражение лица, признаки стресса, видимые маркеры образа жизни. Компания HireVue до 2021 года использовала анализ мимики кандидатов во время видеоинтервью для формирования рекомендаций работодателям, пока не отказалась от этой функции под давлением общественной критики и после того, как Электронный пограничный фонд (EFF) назвал технологию псевдонаучной.

В Синьцзян-Уйгурском автономном районе Китая системы распознавания лиц, по данным расследований Human Rights Watch и утечки документов «Синьцзянского полицейского архива», использовались для отслеживания уйгурского населения — фиксации посещения мечетей, контактов с определёнными людьми и перемещений за пределы установленных зон. Здесь камера превращается не просто в инструмент наблюдения, а в механизм этнического контроля.

5. Цифровой паноптикум: архитектура добровольной несвободы

Британский философ Джереми Бентам в XVIII веке предложил проект тюрьмы-паноптикума — круглого здания, где один надзиратель в центральной башне мог наблюдать за всеми заключёнными одновременно. Ключевой принцип: заключённые не знают, наблюдают за ними в данный момент или нет, и потому ведут себя так, словно за ними следят всегда. Французский философ Мишель Фуко в работе «Надзирать и наказывать» показал, что этот принцип вышел далеко за стены тюрьмы и стал моделью дисциплинарного общества.

Сегодня паноптикум стал цифровым — и, что важнее всего, добровольным. Мы входим в него не под принуждением, а ради комфорта. Ради того, чтобы не вводить пароль. Ради того, чтобы не доставать кошелёк. Ради ощущения, что система нас «узнаёт».

Meta* (бывший Facebook)* ещё в 2010-х годах создала одну из крупнейших в мире баз биометрических данных через систему автоматической разметки фотографий DeepFace, способную распознавать лица с точностью 97,35% — почти на уровне человеческого восприятия. В 2021 году компания объявила об удалении более миллиарда лицевых шаблонов и отключении системы автоматического распознавания — но только после коллективного иска в штате Иллинойс, который обошёлся Meta в 650 миллионов долларов за нарушение закона о защите биометрической информации (BIPA).

Банки внедряют верификацию по лицу как стандартную процедуру. Государства оснащают камерами распознавания вокзалы, аэропорты, стадионы. Сеть городского наблюдения Лондона включает, по различным оценкам, от 600 000 до почти миллиона камер, а полиция Metropolitan Police с 2020 года использует систему распознавания лиц в реальном времени, несмотря на то, что исследование Эссекского университета выявило, что в первых развёртываниях система давала неверный результат в 81% случаев.

Если этот тренд продолжится, отсутствие цифрового биометрического следа начнёт восприниматься не как право, а как аномалия. Нежелание «предъявить лицо» камере уже сейчас вызывает подозрение в некоторых контекстах. Австралийский исследователь технологий наблюдения Тоби Уолш сформулировал это прямо: «Мы движемся к миру, где анонимность станет привилегией, а не нормой».

6. Контуры сопротивления: что можно сделать

Было бы несправедливо утверждать, что мир безмолвно принимает экспансию биометрического наблюдения. Сопротивление существует — и оно растёт.

Европейский Союз в рамках регламента AI Act, принятого в 2024 году, ввёл запрет на использование систем распознавания лиц в реальном времени в общественных местах, за исключением строго ограниченных случаев — поиска пропавших детей, предотвращения террористических угроз и задержания подозреваемых в тяжких преступлениях. Это первая в мире попытка законодательно ограничить биометрическое наблюдение на наднациональном уровне.

В Соединённых Штатах ряд городов пошли ещё дальше. Сан-Франциско в 2019 году стал первым крупным американским городом, полностью запретившим использование распознавания лиц городскими агентствами, включая полицию. За ним последовали Окленд, Бостон, Миннеаполис и другие муниципалитеты.

Закон BIPA штата Иллинойс остаётся одним из самых жёстких в мире: он требует информированного согласия перед сбором биометрических данных и позволяет гражданам подавать частные иски с компенсациями. Именно он стал основой для многомиллионных штрафов не только Meta, но и Google, которая в 2022 году согласилась выплатить 100 миллионов долларов для урегулирования аналогичного иска, связанного с Google Photos.

Технологические методы противодействия тоже развиваются. Исследователи из Университета Карнеги-Меллон ещё в 2016 году продемонстрировали очки с особым рисунком, способные обмануть систему распознавания и заставить её идентифицировать носителя как совершенно другого человека. Проект Fawkes, разработанный в Университете Чикаго, предлагает инструмент для внесения невидимых глазу модификаций в фотографии перед их загрузкой в интернет — таких, которые «отравляют» обучающие датасеты и делают автоматическое распознавание невозможным.

Но все эти меры — пока лишь очаги, а не система. Против глобальной инфраструктуры наблюдения, работающей круглосуточно и становящейся точнее с каждым днём, индивидуальные инструменты защиты напоминают зонт в шторм.

7. Вместо заключения

Меня тревожит не сама технология — она нейтральна, как любой инструмент. Тревожит скорость, с которой мы отдаём то, что невозможно забрать обратно, в обмен на то, без чего прекрасно обходились ещё вчера.

Лицо — не просто набор пикселей и не биометрический шаблон. Это то, с чем мы обращаемся к миру, с чем нас узнают близкие, с чем мы смотрим на себя в зеркало. Превращение его в штрихкод для корпоративных и государственных баз данных — это не технический прогресс, а онтологический сдвиг в отношениях между человеком и властью.

Пока мы не начнём относиться к своей «цифровой коже» хотя бы с той же серьёзностью, с какой запираем входную дверь, мир тотальной прозрачности перестанет быть антиутопией и станет бытом.

И есть вопрос, от которого всё труднее отвернуться: готовы ли вы существовать в реальности, где ваше лицо — это несменяемый свидетель, дающий показания каждую секунду, даже когда вы просто молчите и идёте домой?

Meta* - признана незаконно на территории РФ

Подписывайтесь. Вас ожидает масса интересных публикаций

Всё о кино, TV и мультипликации на моём Дзен-канале «Фильм!..Фильм!..Фильм!..» кликать сюда - https://dzen.ru/id/68a3143388f25a2485a721b4

Авторские рассказы и интересные публикации с просторов интернета в Дзен-канале "Весь мир и чашка кофе" - https://dzen.ru/id/687f7be6cda633575145397e

Авторские подборки:

Картинка в качестве иллюстрации взята из открытого доступа
Картинка в качестве иллюстрации взята из открытого доступа