🛡 Компания Protect AI недавно выпустила три инструмента для обеспечения безопасности LLM в формате open-source. Инструменты помогут защитить AI-модели от различных угроз и упростят управление уязвимостями в процессе разработки. 1. NB Defense — расширение для JupyterLab и CLI-инструмент для управления уязвимостями, интегрированное прямо в среду разработки моделей AI. Оно обеспечивает раннее обнаружение уязвимостей и предоставляет контекстные рекомендации для их устранения. 2. ModelScan — сканирует Pytorch, Tensorflow, Keras и другие форматы на предмет атак сериализации, кражи учетных данных, отравления данных и моделей. 3. Rebuff — предназначен для защиты от атак с быстрым внедрением (PI), при которых злоумышленник отправляет вредоносные промты в LLM. Система использует четыре уровня защиты: эвристический, который отфильтровывает потенциально вредоносные входные данные до того, как они достигнут модели; специальный LLM, который анализирует входящие запросы для выявления потенциаль