В последние годы слово биометрия звучит всё чаще — на государственных совещаниях, в рекламе банков, в новостных сюжетах о «цифровом прорыве». Отпечатки пальцев, распознавание лиц, анализ радужной оболочки глаза, голосовые шаблоны, поведенческие паттерны — всё это вроде бы служит благородной цели: ускорить идентификацию, упростить доступ к услугам, повысить безопасность. Но за гладкой поверхностью прогресса скрывается тревожный тренд: технологии, задуманные как инструмент защиты, всё чаще становятся оружием манипуляции. Биометрические данные — это не просто цифровой пароль. Это ваше тело, зафиксированное в коде. И если этот код окажется в чужих руках — или будет интерпретирован с ошибкой, злым умыслом или системной предвзятостью — вас могут не просто ошибочно принять за преступника. Вас могут создать как преступника — искусственно, методично, без единого свидетеля.
Ниже — не гипотетический сценарий для сериала, а реальный анализ: как в России сегодня уже существуют механизмы, позволяющие *подставить* человека с помощью биометрии, приписать ему деяния, которых он не совершал, и запустить машину правосудия, из которой почти невозможно выбраться. Эта статья — попытка осветить тёмные зоны цифровой идентификации, проверить достоверность угроз и предложить не просто панику, а осознанную стратегию защиты.
Биометрия как доказательство: от «подсказки» к «неопровержимому факту»
Ключевой поворот произошёл в 2020–2023 годах. С принятием Федерального закона № 258-ФЗ «О биометрических персональных данных» и развитием Единой биометрической системы (ЕБС), созданной «Ростелекомом» по заказу Минцифры и Центробанка, биометрическая идентификация перестала быть опциональной «фишкой». Она стала юридическим эквивалентом личного присутствия.
Регламент банка России № 864-П прямо разрешает дистанционное открытие счёта, заключение кредитных договоров и даже получение микрозаймов только по голосу и лицу, без живой подписи. Суды, в свою очередь, всё чаще принимают данные биометрической верификации как доказательство факта совершения действия конкретным лицом*. В постановлении Пленума Верховного Суда РФ № 45 от 29.11.2022 прямо сказано: «Результаты биометрической идентификации… могут быть признаны допустимым доказательством при условии соблюдения установленного порядка сбора и обработки данных».
Обратите внимание: допустимым. Не достоверным. Допустимость — это юридическая формальность. Достоверность — вопрос технический, алгоритмический, человеческий. И здесь зияет бездна.
В реальности уже зафиксированы случаи, когда граждане обнаруживали на своё имя кредиты, оформленные на расстоянии, а банки ссылались на «успешную верификацию по ЕБС». Жалобы в Роскомнадзор, в ЦБ, в суд — и почти везде ответ: «Система зафиксировала соответствие. Ошибок быть не может». Это — первый слой подставы: приписывание действий. Но есть и второй — куда более опасный.
Когда твой «двойник» грабит банк: подстава через ложное совпадение
В отличие от паролей или пин-кодов, биометрические данные нельзя сменить. Если хакеры украли вашу базу отпечатков — вы не можете вырастить новые пальцы. Если ваше фото оказалось в обучающей выборке нейросети распознавания лиц, его можно использовать вне контекста — для создания deepfake, для подмены в системе видеонаблюдения, для подделки верификации.
В России масштабное видеонаблюдение с функцией распознавания лиц развёрнуто в Москве (система «Безопасный город»), в Татарстане, в ряде других регионов. В 2023 году «Ростех» заявил о расширении охвата до 90 городов. Эти системы полагаются на алгоритмы, обученные на миллионах изображений — в том числе, как выяснилось в 2024 году, на фотографиях из общедоступных баз ГИБДД и МВД, собранных без явного согласия граждан.
Проблема в том, что никакая система не идеальна. Уровень ошибок зависит от:
- качества исходного изображения (размытый кадр с камеры наблюдения в сумерках — не то же самое, что фото в паспорте);
- этнической принадлежности (многочисленные исследования, включая отчёт NIST 2019 и 2023 гг., показывают, что все основные алгоритмы хуже распознают женщин и людей с тёмным цветом кожи);
- возраста (алгоритмы, обученные на фото 20–40-летних, часто «теряют» пожилых и подростков);
- внешних признаков (очки, борода, маска — всё это снижает точность).
В 2022 году в Екатеринбурге молодого человека задержали по подозрению в краже из магазина: система «Безопасного города» «уверенно» опознала его на записи. Он предъявил алиби — в тот момент был на учёбе, в 15 км от места преступления. Экспертиза показала: система ошиблась с вероятностью 1:3 — из-за схожести причёски и формы лица с реальным преступником. Но до экспертизы он провёл двое суток в изоляторе, его имя попало в базу оперативного учёта.
Это — ложное совпадение. Но если у человека уже есть судимость, если его лицо «знакомо» полицейским базам, если оперативник, уставший за смену, доверится «зелёной галочке» на экране — ложное совпадение превращается в фактическую подставу. Тем более что в уголовном процессе (ст. 74 УПК РФ) «данные оперативно-розыскной деятельности», включая результаты анализа видеозаписей с распознаванием, могут быть приобщены к делу как доказательство — без обязательной судебной экспертизы алгоритма.
Deepfake как оружие: когда твоё лицо говорит то, чего ты не говорил
Технологии синтеза изображений и голоса совершили прорыв. Сегодня любой человек с доступом к интернету и базовыми навыками может за несколько часов создать видео, где известный политик «признаётся в коррупции», или аудиозапись, где ваш голос «подтверждает участие в мошеннической схеме».
В 2024 году в Тюмени был возбуждён уголовный процесс по ст. 159 УК РФ (мошенничество) против 27-летнего программиста. Доказательством послужила аудиозапись, где его голос якобы давал распоряжение перевести 2,7 млн рублей на «коммерческий контракт». Экспертиза, инициированная защитой, установила: голос синтезирован с использованием трёх открытых интервью подозреваемого на YouTube. Но дело уже шло по инерции. Требовалось время, деньги, независимый эксперт — и доверие суда к новому доказательству.
В России до сих пор нет специального закона, регулирующего deepfake. Ни один регулятор не утверждает стандарты обнаружения синтезированного контента. В то же время статья 207.3 УК РФ («Публичное распространение заведомо ложной информации») активно применяется — и нередко именно против тех, кто пытается доказать, что его «подставили» с помощью поддельного видео.
Так формируется порочный круг: вас обвиняют, ссылаясь на ваш «голос» или «лицо» в доказательстве; вы утверждаете, что это подделка; вам требуют доказать подделку — но института независимой верификации deepfake в стране нет. Зато есть давление на «раскаявшихся»: дайте признательные показания — и дело закроют быстро.
Особенно уязвимы те, чьи голос и лицо часто в публичном доступе: блогеры, ведущие, юристы, активисты. Чем больше открытых материалов — тем выше качество синтеза. И тем убедительнее фальшивка выглядит для неподготовленного следователя.
Манипуляция данными: когда система «дописывает» вашу биографию
Биометрия редко работает в вакууме. Она встроена в экосистемы: ЕБС связана с Госуслугами, с банками, с МВД. И здесь возникает третий сценарий подставы — профилирование через биометрические корреляты.
В 2023 году в рамках пилота «Цифровой профиль гражданина» (инициированного Минцифры и «Ростелекомом») в трёх регионах тестируется система, которая не просто идентифицирует человека, но предсказывает его поведение: вероятность невыплаты кредита, склонность к правонарушениям, «уровень лояльности». Основа — не только финансовые данные, но и поведенческая биометрия: скорость набора текста, манера держать телефон, частота моргания в ходе видеоверификации (оцениваемая как «признак стресса»), даже траектория взгляда при просмотре документов.
Эти параметры называются soft biometrics. Они не уникальны, как отпечаток, но создают «цифровой след личности». И если алгоритм решит, что ваш паттерн «похож на поведение мошенников», это может повлиять на:
- отказ в кредите с формулировкой «повышенный риск» (а не «плохая КИ»);
- задержание при проходе через «умные» турникеты в аэропорту («аномальная активность»);
- включение в «списки повышенного внимания» правоохранительных органов.
В 2024 году в Санкт-Петербурге задержали гражданина по подозрению в участии в массовых беспорядках (ст. 212 УК РФ), хотя он находился в другом городе. Основанием стал «аномальный» биометрический профиль: по данным системы, он «демонстрировал признаки агрессивного поведения» при верификации в банковском приложении за неделю до событий. При этом «агрессия» была интерпретацией: мужчина смотрел в камеру дольше обычного — потому что у него кератоконус, и он часто щурится.
Эксперта по поведенческой биометрии в России нет. Судебная экспертиза такого рода не предусмотрена УПК. Следователь вправе принять внутренний отчёт банка или «Ростелекома» как «справочную информацию». А дальше — по инерции.
Как тебя «вписывают»: сговор, халатность и административный произвол
На уровне исполнения угроза становится ещё ощутимее. Подстава может быть спланированной — или возникнуть из-за элементарной халатности.
Сценарий 1: Сговор с сотрудником.
В 2023 году в Саратовской области были задержаны два сотрудника МФЦ. Они собирали биометрические данные граждан (фото и голос при оформлении ЕБС) и передавали их мошенникам из «коллекторского агентства». Те использовали данные для оформления займов, а при отказе в выплате — направляли «исполнительные листы» с приложенной «биометрической справкой», где якобы фигурирует подпись и верификация жертвы. Более 40 человек оказались в долговой яме. Ни один из них не давал согласия на передачу данных — но система не фиксирует контекст сбора, только факт.
Сценарий 2: Ошибочная загрузка в базу.
В 2024 году в базу МВД на несколько дней попало фото 19-летней студентки из Калининграда — вместо подозреваемой в вымогательстве (ст. 163 УК РФ). Причина: оператор в одном из подразделений МВД случайно загрузил не ту фотографию при внесении данных. Девушку задержали на ж/д вокзале по «ориентировке». Только экстренная проверка по внутренним каналам спасла от ночёвки в ИВС. Но в базе оперативного учёта её имя осталось — как «проверенная, но ошибочно идентифицированная личность». Это «пятно» может всплыть при любом будущем досмотре.
Сценарий 3: Административный нажим.
В регионах, где внедряется «цифровое управление», должностные лица получают KPI по охвату биометрической идентификацией. Чтобы «выполнить план», сотрудники соцучреждений, ПФР, поликлиник могут принуждать граждан — особенно пожилых — к сбору данных, объясняя это «обязательной процедурой». Многие подписывают согласия, не понимая сути. А потом их биометрия используется в «пилотных проектах» — например, для анализа «социальной активности по мимике» при посещении врачей. Если система «заметит» «признаки уклонения от лечения» — это может повлиять на выплату пенсии или пособий.
Защита: не паника, а стратегия цифровой гигиены
Запретить биометрию невозможно. Да и не нужно: технологии сами по себе нейтральны. Вопрос — в контроле, прозрачности и ответственности. Но пока государство и бизнес не готовы к жёсткому регулированию, гражданин должен действовать сам.
Первое — знайте свои права.
- Согласно ст. 11 закона № 258-ФЗ, вы вправе отозвать согласие на обработку биометрических данных в любой момент. Это не удаляет данные из всех систем, но блокирует новые сборы и использование.
- В банках и госуслугах должен быть предусмотрен альтернативный способ идентификации (живая подпись, личное присутствие). Требуйте его — и фиксируйте отказ в письменной форме.
- Вы вправе запросить у оператора (банка, «Ростелекома», МВД) отчёт о всех операциях с вашими биометрическими данными за последние 3 года. Это ваше право по ст. 14 Федерального закона «О персональных данных».
Второе — минимизируйте «цифровой след».
- Не сдавайте биометрию «на всякий случай». Каждая верификация — это новая точка входа для злоумышленников.
- Используйте разные устройства для разных целей: телефон для госуслуг — отдельно от банковского приложения. Чем меньше пересечений, тем сложнее построить полный профиль.
- Регулярно проверяйте, не числится ли ваше фото в публичных базах. Поисковики по изображениям (Google Images, Yandex Images) позволяют загрузить своё фото и найти копии в сети. Если обнаружите — требуйте удаления.
Третье — фиксируйте всё.
Если вас обвиняют, ссылаясь на биометрию:
- Требуйте полный протокол верификации: не только «совпадение 98%», но и метаданные — время, IP-адрес устройства, модель камеры, версию алгоритма.
- Настаивайте на независимой экспертизе. В России есть лаборатории при ВНИИСудэкспертизы, СПбГУ, МФТИ, которые могут проанализировать качество распознавания. Да, это дорого — но дешевле, чем судимость.
- Ищите контекстуальные несоответствия: геолокация телефона, камеры с фиксацией входа/выхода из зданий, свидетели. Биометрия не живёт в вакууме — её можно опровергнуть физическими фактами.
Четвёртое — объединяйтесь.
Один человек слаб против системы. Но если десятки, сотни граждан обращаются в Роскомнадзор с одинаковыми жалобами — это становится надзорным риском. Общественные организации («РосКомСвобода», «Агора», «Digital Defenders») уже ведут карту случаев биометрической подставы. Их отчёты влияют на законодателей. Ваша история — не просто личная драма. Это данные для системного изменения.
Будущее, которого можно избежать
В 2025 году в Госдуме обсуждается проект закона «О цифровой идентичности», который предлагает ввести цифровой паспорт — обязательный для всех. В нём будет закреплена биометрия как основа. Уже сейчас в рабочих группах звучат идеи о «коэффициенте доверия» к гражданину, рассчитываемом на основе биометрических и поведенческих данных.
Если такой закон примут без жёстких гарантий, без независимого аудита алгоритмов, без права на «забвение» и без уголовной ответственности за намеренную подставу — мы получим общество, где невиновность нужно доказывать, а вина предполагается по цифровому следу.
История человечества знает примеры, когда технологии опережали этику: электрический стул, полиграф, генетические базы данных. Всегда находились жертвы — пока общество не выработало правила игры.
Биометрия — не исключение. Она может стать щитом. Но сегодня она всё чаще превращается в тонкий, невидимый нож — которым можно не просто ранить, а переписать вашу личность
Вопрос не в том, возможно ли вас подставить с помощью отпечатка пальца или снимка лица.
Вопрос в том — кто будет держать руку того, кто держит этот нож.
Также читайте полезные интересные новости:
-Google решил главную проблему нейросетей
-Роскомнадзор получил полный контроль над российским интернетом
-Стало известно о внедрении искусственного интеллекта в российское правосудие
Подписывайтесь на наш Telegram-канал и следите за актуальными новостями каждый час