Найти в Дзене

ИИ генерирует слабые пароли: дубликаты и низкая энтропия

ИИ-генераторы паролей часто выдают строки, которые выглядят сложными, но остаются предсказуемыми. Исследователи проверили популярные LLM и нашли повторы и шаблоны, которые снижают реальную стойкость таких логинов. Проблема в том, что внешняя «сложность» легко обманывает онлайн-проверки. А вот статистика символов и повторяемость уже играют на стороне атакующего. ❗️ ПОДПИСЫВАЙСЯ НА НАШ КАНАЛ В ДЗЕНЕ И ЧИТАЙ КРУТЫЕ СТАТЬИ БЕСПЛАТНО Команда Irregular протестировала несколько моделей, включая Claude, ChatGPT и Gemini. Каждую просили сгенерировать 16-символьные пароли с цифрами, символами и разным регистром. На поверхности все выглядело прилично. Многие варианты проходили популярные «password strength meters», а оценка времени взлома доходила до «сотен лет». Но при анализе серии из 50 паролей, полученных в разных сессиях, исследователи увидели неприятное. Встречались дубликаты. А часть строк отличалась минимально и повторяла один и тот же «скелет». Исследователи отмечают повторяющиеся структ
Оглавление

ИИ-генераторы паролей часто выдают строки, которые выглядят сложными, но остаются предсказуемыми. Исследователи проверили популярные LLM и нашли повторы и шаблоны, которые снижают реальную стойкость таких логинов.

Проблема в том, что внешняя «сложность» легко обманывает онлайн-проверки. А вот статистика символов и повторяемость уже играют на стороне атакующего.

Тесты показали повторы у паролей от ChatGPT, Claude и Gemini

❗️ ПОДПИСЫВАЙСЯ НА НАШ КАНАЛ В ДЗЕНЕ И ЧИТАЙ КРУТЫЕ СТАТЬИ БЕСПЛАТНО

Команда Irregular протестировала несколько моделей, включая Claude, ChatGPT и Gemini. Каждую просили сгенерировать 16-символьные пароли с цифрами, символами и разным регистром.

На поверхности все выглядело прилично. Многие варианты проходили популярные «password strength meters», а оценка времени взлома доходила до «сотен лет».

Но при анализе серии из 50 паролей, полученных в разных сессиях, исследователи увидели неприятное. Встречались дубликаты. А часть строк отличалась минимально и повторяла один и тот же «скелет».

Почему «красивый» пароль от LLM может быть предсказуемым

Исследователи отмечают повторяющиеся структурные признаки. Например, многие пароли начинались и заканчивались похожими типами символов. И еще один маркер: в выборке не было повторяющихся символов.

На слух это звучит как плюс. На практике это подозрительно. Случайная строка из большого алфавита иногда повторяет символы. А когда повторов нет никогда, это похоже на выученное «правило приличного пароля», а не на случайность.

Главная метрика тут — энтропия. По оценкам Irregular, LLM-пароли набрали примерно 20-27 бит энтропии. Для сравнения, по тем же подходам случайный 16-символьный пароль обычно дает 98-120 бит.

Разрыв в энтропии может сократить взлом до часов

❗️ ПОДПИСЫВАЙСЯ НА НАШ КАНАЛ В ДЗЕНЕ И ЧИТАЙ КРУТЫЕ СТАТЬИ БЕСПЛАТНО

Разница между 20-27 и 98-120 бит — это не «чуть хуже». Это другой масштаб пространства перебора. Исследователи считают, что в практическом сценарии такие пароли могут поддаваться брутфорсу за часы, включая случаи со старым железом.

Отдельно досталось онлайн-метрам «сложности пароля». Они часто смотрят на наличие цифр, спецсимволов и регистров. Но они не видят, что строка получилась из языковой модели, а значит несет статистические закономерности.

Если атакующий знает, что пароль сгенерировал LLM, он может сузить поиск. Он будет не перебирать весь алфавит, а атаковать вероятные шаблоны. Это и есть главный риск.

LLM-пароли уже могут «гулять» по репозиториям и документации

В исследовании также упоминают, что похожие последовательности встречаются в публичных репозиториях и документации. Это намекает, что AI-пароли могли попасть в оборот. Особенно там, где разработчики быстро набрасывают тестовые креды.

И дальше эффект накапливается. Один и тот же шаблон начинает повторяться в разных местах. А это упрощает атаки на сервисы, где такие пароли случайно «доехали» до продакшена.

Даже сами модели иногда предупреждают, что это плохая идея

Любопытная деталь: некоторые ИИ-инструменты не до конца «верят» собственным паролям. В примере из отчета Gemini 3 Pro выдал варианты пароля, но добавил предупреждение. Модель посоветовала не использовать чат-генерацию для чувствительных аккаунтов.

❗️ ПОДПИСЫВАЙСЯ НА НАШ КАНАЛ В ДЗЕНЕ И ЧИТАЙ КРУТЫЕ СТАТЬИ БЕСПЛАТНО

Вместо этого она рекомендовала парольные фразы и менеджеры паролей. Логика простая: генератор в менеджере опирается на криптографическую случайность, а LLM — на предсказание правдоподобного текста.

Что это значит для пользователей и команд

Сам тезис исследователей звучит жестко: «людям и coding-агентам не стоит полагаться на LLM для генерации паролей». И это, по их словам, не лечится промптами и настройкой temperature. Модели оптимизировали под предсказуемость и связность, а не под криптостойкую случайность.

Для обычного пользователя вывод простой: если вы хотите «рандомный» пароль, его должен выдавать инструмент, который умеет в случайность. А LLM лучше оставить для текста, кода и объяснений.

Если хочется первоисточник по исследованию, оно пересказано в материале The Register.

На момент публикации тренд выглядит так: LLM все чаще встраивают в рабочие процессы, и люди начинают доверять им задачи «на автомате». История с паролями напоминает, что безопасность ломается не из-за отсутствия символов, а из-за предсказуемости.

Подписывайтесь на наши каналы в Telegram и Дзен, чтобы узнавать больше. И делитесь своим мнением и опытом в нашем чате.

ИИ генерирует слабые пароли: дубликаты и низкая энтропия ⚡️