Исследование показало, что пароли, сгенерированные ИИ, выглядят надежными, но на самом деле очень уязвимы. LLM склонны к предсказуемости, что делает их непригодными для создания безопасных паролей. — gizmodo.com
Эпоха ИИ оказалась не самой удачной для кибербезопасности. Мы знаем, что веб-сайты и приложения, генерирующие «атмосферу» (vibe-coded), стали рассадником уязвимостей, оставляющих платформы беззащитными перед атаками. Оказывается, генерация паролей с помощью ИИ также подвергает вас риску. Новое исследование от фирмы по кибербезопасности Irregular показало, что пароли, сгенерированные большими языковыми моделями (LLM), выглядят надежными, но на самом деле «фундаментально небезопасны» и на удивление легко угадываются.
Чтобы определить возможности популярных ИИ-моделей в качестве генераторов паролей, Irregular попросила Claude, ChatGPT и Gemini создать 16-символьные безопасные пароли, включающие специальные символы, цифры и буквы, а в некоторых случаях — кодовые фразы. Модели способны выдавать строки символов, которые выглядят так же, как любой автоматически сгенерированный пароль из вашего менеджера паролей или встроенных инструментов, предоставляемых Google или Apple. Они даже получили оценку «надежных паролей» по мнению онлайн-сервисов, таких как KeePass.
И все же, они оказались весьма уязвимы для взлома. Почему? Потому что большие языковые модели не очень хорошо справляются со случайной генерацией. Например, когда исследователи попросили модель Claude Opus 4.6 от Anthropic создать 50 уникальных паролей, она на самом деле использовала очень предсказуемый шаблон. Каждый сгенерированный ею пароль начинался с буквы, причем большинство из них были заглавной «G». Второй символ почти всегда был цифрой «7». Символы «L», «9», «m», «2», «$» и «#» встречались во всех 50 паролях, а большая часть алфавита вообще не появлялась ни в одном из 50 вариантов.
Другие модели имели схожие проблемы. ChatGPT от OpenAI начинал почти каждый пароль с символа «v», а почти половина всех паролей использовали «Q» в качестве второго символа. Как и Claude, ChatGPT при генерации пароля придерживался узкого набора символов, вместо того чтобы использовать весь алфавит. Gemini от Google демонстрировал те же закономерности: большинство его паролей начинались либо с заглавной, либо со строчной буквы «K». Последующие символы почти всегда представляли собой вариации «#», «P» или «9».
Исследователи даже отметили, что LLM, казалось, делали выбор, который должен был сделать пароли более случайными, но на самом деле выдавал недостаток случайности. Исследователи отметили, что не было ни одного случая повторяющихся символов во всех сгенерированных паролях. Хотя на первый взгляд это делает результаты более случайными, Irregular отметил: «Вероятностно, это было бы крайне маловероятно, если бы пароли были действительно случайными».
Надежность пароля обычно измеряется битами энтропии, которые показывают, сколько попыток потребуется для взлома пароля. Например, если бы вы могли выбирать только между двумя паролями — скажем, «11111» или «12345» — существует 50% вероятность, что кто-то угадает ваш пароль. Это означает 1 бит энтропии. Если ваш пароль может быть любым из 1000 слов, человеку потребуется до 1000 попыток, чтобы угадать его, что составляет около 10 бит энтропии. Имея большое разнообразие вариантов для каждого символа в пароле, вы создаете больше бит энтропии, что затрудняет брутфорс-атаку на пароль. Пароль с 20 битами энтропии генерирует около миллиона возможных комбинаций, но его можно взломать за считанные секунды, если злоумышленник использует современные высокопроизводительные GPU для генерации предположений. Между тем, пароль со 100 битами энтропии потребовал бы триллионы лет для взлома.
Насколько же плохи пароли, сгенерированные LLM? По словам исследователей, если бы действительно безопасный пароль давал 6,13 бита энтропии на символ, то выходные данные LLM были бы ближе к 2,08 бита энтропии. Если бы стандартный, действительно безопасный 16-символьный пароль имел около 98 бит энтропии, LLM смогли бы выдать пароли лишь с предполагаемыми 27 битами энтропии, что делает их чрезвычайно уязвимыми для атак методом перебора.
Индивидуальному пользователю было бы достаточно просто избегать этого: просто не используйте LLM для генерации своего пароля. Gemini даже предлагает подсказку, сообщающую, что не следует использовать созданные им пароли для конфиденциальных учетных записей. Но все больше людей передают написание кода и другие задачи ИИ-агентам. И даже эти агенты склонны полагаться на LLM для создания паролей. Исследователи заявили, что им удалось обнаружить распространенные шаблоны, созданные LLM, в реальных условиях, осуществляя поиск на GitHub и в других технических документах, что означает, что существуют приложения и сервисы с защитой паролем, готовые к взлому.
Irregular, похоже, не считает, что эту проблему можно решить простым обновлением. «Люди и агенты по написанию кода не должны полагаться на LLM для генерации паролей. Пароли, сгенерированные напрямую LLM, фундаментально слабы, и это невозможно исправить с помощью промптов или настроек температуры: LLM оптимизированы для выдачи предсказуемых, правдоподобных результатов, что несовместимо с безопасной генерацией паролей», — заявила компания.
Gizmodo обратился к Anthropic, OpenAI и Google за комментариями по поводу выводов исследователей, но на момент публикации ответа не получил.
Всегда имейте в виду, что редакции могут придерживаться предвзятых взглядов в освещении новостей.
Автор – AJ Dellinger