Найти в Дзене
ПрилоЖенечка

Почему нельзя использовать ИИ для создания паролей

🔒🤖🔒 Использование ИИ для генерации паролей может быть опасно. Это подтверждают свежие исследования от Irregular AI Security Lab от февраля 2026 года. 🔸 Низкая случайность и предсказуемость. ИИ вроде Claude, GPT или Gemini не создают настоящую случайность — они предсказывают последовательности на основе обучающих данных. Пароль выглядит сложным (верхний/нижний регистр, цифры, символы), но имеет низкую энтропию (20–27 бит вместо 98+ для сильного 16-символьного пароля). Это значит, что его легко взломать полным перебором (brute-force) или словарными атаками. На взлом уйдут секунды или часы на современном оборудовании, а не века. 🔸 Повторяемость. ИИ часто выдаёт одинаковые или похожие пароли разным пользователям. Если миллионы людей запросят "сгенерируй сильный пароль", хакеры могут собрать базу таких ИИ-паролей и взламывать аккаунты массово. 🔸 Риски хранения и утечек. Запросы к ИИ логируются на серверах для улучшения модели или анализа. Если сервис взломают, как уже было с OpenAI в
Оглавление

🔒🤖🔒

Использование ИИ для генерации паролей может быть опасно. Это подтверждают свежие исследования от Irregular AI Security Lab от февраля 2026 года.

💥 Почему это опасно

🔸 Низкая случайность и предсказуемость. ИИ вроде Claude, GPT или Gemini не создают настоящую случайность — они предсказывают последовательности на основе обучающих данных. Пароль выглядит сложным (верхний/нижний регистр, цифры, символы), но имеет низкую энтропию (20–27 бит вместо 98+ для сильного 16-символьного пароля). Это значит, что его легко взломать полным перебором (brute-force) или словарными атаками. На взлом уйдут секунды или часы на современном оборудовании, а не века.

🔸 Повторяемость. ИИ часто выдаёт одинаковые или похожие пароли разным пользователям. Если миллионы людей запросят "сгенерируй сильный пароль", хакеры могут собрать базу таких ИИ-паролей и взламывать аккаунты массово.

🔸 Риски хранения и утечек. Запросы к ИИ логируются на серверах для улучшения модели или анализа. Если сервис взломают, как уже было с OpenAI в 2023 или другими в 2025, ваши пароли могут утечь. Плюс, если ИИ облачный, как ChatGPT, пароль уходит в сеть, а не генерируется локально.

🔸 Другие проблемы. ИИ не предназначен для криптографии. Его RNG (генератор случайных чисел) не сертифицирован, как в специализированных инструментах. Кроме того, модели могут запоминать популярные шаблоны из данных (например, избегать символ "*" из-за Markdown).

В общем, риски реальные, особенно для важных аккаунтов (банки, почта). Исследования показывают, что ИИ-пароли на 50–80% слабее, чем созданные в менеджерах паролей.

❓ Что делать

Используйте специализированные менеджеры паролей: Bitwarden, 1Password, KeePass (он бесплатный). Они генерируют пароли локально с криптографической случайностью (CSPRNG) и хранят зашифровано.

Если создаёте пароль вручную: комбинируйте случайные слова по системе от XKCD и используйте метод Diceware. Подробнее о ручном способе создания пароля читайте тут.

Никогда не генерируйте пароли в ИИ-чатах — лучше оффлайн-генераторы.

🔺🔻🔺🔻🔺🔻🔺🔻🔺🔻🔺🔻🔺

Спасибо за внимание! 😘

Ссылка на мой ВК: https://vk.com/prilozhenechka

Tinywow. Что скрывает универсальный онлайн-помощник?
ПрилоЖенечка27 мая 2025