Когда говорят об атаках на ИИ, в первую очередь вспоминают про два сценария: 🔐 либо атакующий крадёт веса модели, 🎯 либо подсовывает ей очевидные adversarial-примеры с шумом, которые выглядят странно даже для человека. Но есть нще множество других уязвимостей. Например, нейросеть можно системно ломать, не имея доступа ни к весам, ни к обучающим данным, и при этом атака будет выглядеть как «нормальная работа системы». 🔧 Как выглядит типичная AI-система Если отбросить маркетинг, почти любая production-система с ИИ устроена примерно одинаково: 1️⃣ Источник данных: камера, микрофон, лог, поток транзакций 2️⃣ Предобработка: драйверы, кодеки, SDK, нормализация 3️⃣ Модель, чаще всего закрытая и недоступная извне 4️⃣ Бизнес-логика: принимает решения на основе вывода модели Второй пункт часто считают «технической деталью», а не частью attack surface, однако именно здесь находится точка входа атаки про которую пойдет речь. 🎯 В чём идея Ключевая мысль: 🧩 Если атакующий управляет тем, к