Инструкция по использованию полуавтоматизированных инструментов MLSecOps (Часть 1) Структура проекта: models/ ├── cv/ │ ├── resnet50.pth # PyTorch │ └── mobilenet.onnx # ONNX ├── nlp/ │ ├── bert-base-uncased/ # Hugging Face │ ├── lstm-sentiment.h5 # Keras │ └── text_classifier.joblib # Scikit-learn ├── llm/ │ └── llama-2-7b/ # Кастомная LLM └── regression/ └── housing_prices.pkl # Scikit-learn data/ ├── imagenet_samples/ # Для CV └── imdb_reviews.csv # Для NLP 1. ModelScan Назначение: Статический анализ моделей на безопасность Проверяет: • Наличие вредоносного кода в моделях • Корректность зависимостей и версий фреймворков • Уязвимости в сериализованных объектах (например, pickle-файлах) # Для PyTorch (CV-классификатор) docker run -v $(pwd)/models/cv:/models modelscan scan /models/resnet50.pth --type pytorch # Для TensorFlow SavedModel (NLP) docker run -v $(pwd)/models/nlp:/models modelscan scan /models/sentiment_model/ --type tensorflow 2. Adversarial Robustness Toolbox Назначение : Тестирование устойчивости к атакам Проверяет: • Уязвимость к атакам FGSM, PGD, ZOO и др. • Способность модели противостоять искажениям входных данных Для CV-моделей (атаки FGSM, PGD): # PyTorch (ImageNet) docker run -v $(pwd)/models/cv:/models -v $(pwd)/data:/data -it ml-tools \ python -m art.run_attack \ --model-path /models/resnet50.pth \ --model-type pytorch \ --attack pgd \ --dataset imagenet \ --data-path /data/imagenet_samples/ # ONNX (MNIST) docker run -v $(pwd)/models/cv:/models -it ml-tools \ python -m art.run_attack \ --model-path /models/mnist.onnx \ --attack fgsm \ --dataset mnist \ --input-shape 1,1,28,28 #MLSecOps
Vladimir IVANOV, 66
Текстовые и видео-мнения режиссера неигрового кино, работавшего с 1971 года, которые он нашёл в недрах своего компьютера. За этот период ему удалось столкнуться с широким спектром тем, которые он сделал в содружестве с покойными коллегами, о которых он постарается рассказать
Канал · 2435