Добавить в корзинуПозвонить
Найти в Дзене
The IT in Finance

88% забывают пароли: биометрия как решение или новый риск?

88% россиян периодически забывают свои пароли. Столько же, сколько задумываются о смене оператора, но не решаются. По данным «Лаборатории Касперского», каждая вторая попытка входа в аккаунт — это внутренний диалог между "что за пароль я тут ставил?" и "ну хоть не заблокировали". Но вопрос теперь не в паролях, а в том, как рынок их вытесняет — и чем. В финтехе традиционный пароль уже воспринимается как наследие эпохи Internet Explorer. Биометрия выглядит как выход. Удобный, быстрый, интуитивный. Но давайте не спешить с аплодисментами. Биометрия — да, кажется логичной заменой. Скан отпечатка, лицо, голос. Но всё чаще возникает вопрос: а можно ли подделать "вас"? Оказывается — да. И всё дешевле. Deepfake-технологии, основанные на генеративных нейросетях, уже в состоянии подменять лицо в реальном времени. Не только в видео, но и в биометрических системах входа. Уязвимость голосовых ассистентов — известный кейс: алгоритмы успешно проходят голосовую проверку, копируя интонации владельца. В 2
Оглавление

88% россиян периодически забывают свои пароли. Столько же, сколько задумываются о смене оператора, но не решаются. По данным «Лаборатории Касперского», каждая вторая попытка входа в аккаунт — это внутренний диалог между "что за пароль я тут ставил?" и "ну хоть не заблокировали". Но вопрос теперь не в паролях, а в том, как рынок их вытесняет — и чем.

В финтехе традиционный пароль уже воспринимается как наследие эпохи Internet Explorer. Биометрия выглядит как выход. Удобный, быстрый, интуитивный. Но давайте не спешить с аплодисментами.

Лицо — новый пароль? Хорошо. А если его украли?

Биометрия — да, кажется логичной заменой. Скан отпечатка, лицо, голос. Но всё чаще возникает вопрос: а можно ли подделать "вас"?

Оказывается — да. И всё дешевле. Deepfake-технологии, основанные на генеративных нейросетях, уже в состоянии подменять лицо в реальном времени. Не только в видео, но и в биометрических системах входа. Уязвимость голосовых ассистентов — известный кейс: алгоритмы успешно проходят голосовую проверку, копируя интонации владельца.

В 2024 году в Индии был зарегистрирован случай, когда мошенники сгенерировали deepfake-голос, чтобы получить доступ к банковскому аккаунту. Китай и Южная Корея внедряют анти-спуфинг-протоколы, но даже они не дают 100% защиты. Потому что если ваш пароль можно сменить, то лицо и голос — уже нет.

Финтех на распутье: надёжность или удобство?

Финтех-игроки нацелены на frictionless experience — пользовательский путь без трения. Это значит минимум кликов, максимум доверия к устройству. Но с ростом атаки на биометрию, особенно в связке с ИИ, доверие — уже не факт, а риск.

Вот дилемма: если пароли небезопасны, а биометрия потенциально уязвима, что тогда?

Ответ — в комбинации

Будущее финтех-безопасности не в одном инструменте, а в системе. Пароль — как fallback. Биометрия — как удобный ключ. Поведенческая аналитика — как невидимая прослойка. Современные системы авторизации уже учитывают, как человек держит телефон, как двигает пальцем, сколько времени тратит на ввод цифр. Всё это — цифровой почерк, который не сгенерирует нейросеть.

Вывод

Да, пароли забываются. Да, биометрия удобна. Но в гонке за безопасность побеждает не тот, кто предлагает модное решение, а тот, кто комбинирует простоту с продуманной многоуровневой защитой.

Финтеху пора перестать рассматривать биометрию как магию. Это просто ещё один метод. А значит, с ним надо обращаться как с любым инструментом: использовать, но проверять. Удобство не может быть ценой безопасности.

Пока кто-то стирает пароль с бумажки под клавиатурой, кто-то другой — обучает ИИ копировать лицо. Настоящая безопасность — это не про память, а про систему, которая учитывает всё.

Нас можно слушать:

Apple Podcasts

Яндекс Музыка

Литрес

Звук