изображение: recraft Генеративные языковые модели генерируют пароли с повторяющимися шаблонами, которые делают их уязвимыми для целенаправленных атак. Специалисты компании Irregular, занимающейся вопросами безопасности ИИ, протестировали Claude, ChatGPT и Gemini, обнаружив в итоге, что все три модели плохо придумывают пароли и допускают одинаковые ошибки. Условия эксперимента были одинаковыми для всех участников — сгенерировать 16-символьный пароль с буквами разного регистра, цифрами и спецсимволами. Онлайн-чекеры сложности встречали результаты с похвалой, обещая «сотни лет» на перебор. Но именно здесь и кроется ловушка — стандартные проверщики оценивают энтропию символов, а не поведенческие шаблоны конкретной модели. Злоумышленник, знающий, как именно тот или иной ИИ конструирует строки, получает серьёзное преимущество. Наглядный пример — 50 последовательных запросов к Claude Opus 4.6 вернули всего 30 уникальных паролей. При этом 18 из них оказались абсолютно идентичными. Почти все ва