Эксперты по кибербезопасности заметили: пароли, созданные языковыми моделями, выглядят сложными, но их легко взломать из-за повторяющихся шаблонов. 16-символьные комбинации с цифрами и спецсимволами ИИ формирует по предсказуемым алгоритмам, а не случайно. Исследователи проверили ChatGPT, Claude и Gemini и обнаружили интересную закономерность: несмотря на кажущуюся сложность, ИИ повторяет комбинации и создаёт пароли с низкой энтропией. В экспериментах у Claude из 50 попыток повторились 20 комбинаций, а у других моделей тоже встречались схожие структуры. Языковые модели формируют правдоподобные и повторяющиеся последовательности — это нормально для текста, но плохо для безопасности. Анализ показал: алгоритмы ИИ используют ограниченный набор символов и предсказуемые структуры. В результате 16-символьный пароль, который визуально выглядит надёжным, даёт лишь около 27 бит энтропии, тогда как для криптографически стойкой защиты нужно примерно 98 бит. Эксперты советуют не использовать ИИ для
ИИ-пароли оказались не такими надежными: ChatGPT, Claude и Gemini повторяют комбинации
19 февраля19 фев
5
1 мин