🔒🤖🔒 Использование ИИ для генерации паролей может быть опасно. Это подтверждают свежие исследования от Irregular AI Security Lab от февраля 2026 года. 🔸 Низкая случайность и предсказуемость. ИИ вроде Claude, GPT или Gemini не создают настоящую случайность — они предсказывают последовательности на основе обучающих данных. Пароль выглядит сложным (верхний/нижний регистр, цифры, символы), но имеет низкую энтропию (20–27 бит вместо 98+ для сильного 16-символьного пароля). Это значит, что его легко взломать полным перебором (brute-force) или словарными атаками. На взлом уйдут секунды или часы на современном оборудовании, а не века. 🔸 Повторяемость. ИИ часто выдаёт одинаковые или похожие пароли разным пользователям. Если миллионы людей запросят "сгенерируй сильный пароль", хакеры могут собрать базу таких ИИ-паролей и взламывать аккаунты массово. 🔸 Риски хранения и утечек. Запросы к ИИ логируются на серверах для улучшения модели или анализа. Если сервис взломают, как уже было с OpenAI в