🧠 Как взломать нейросеть, не трогая её весов
Когда говорят об атаках на ИИ, в первую очередь вспоминают про два сценария: 🔐 либо атакующий крадёт веса модели, 🎯 либо подсовывает ей очевидные adversarial-примеры с шумом, которые выглядят странно даже для человека. Но есть нще множество других уязвимостей. Например, нейросеть можно системно ломать, не имея доступа ни к весам, ни к обучающим данным, и при этом атака будет выглядеть как «нормальная работа системы». 🔧 Как выглядит типичная AI-система Если отбросить маркетинг, почти любая production-система...