Введение В корпоративном мире есть старая истина: «Любая система так же надёжна, как её самое слабое звено». Ещё вчера этим звеном был человек, забывший сменить пароль. Сегодня — сама модель искусственного интеллекта, встроенная в ваш бизнес-процесс. Thales Data Threat Report 2025 ошарашил цифрами: 70 % компаний считают именно генеративный ИИ самой серьёзной угрозой для данных. Раньше мы ставили замки на двери, теперь злоумышленник через них обучает свою модель, чтобы подобрать универсальный отмычку. 1. Data Poisoning — «троянский конь» в обучающем датасете
ИИ обучается на данных, а если в эту «кашу» подмешать ложные метки, модель начнёт генерировать ошибки. Банку достаточно одной подпорченной транзакции, чтобы заблокировать счет лояльного клиента. 2. Model Stealing — кража самого мозга
Хакеры создают «теневого» бота, собирают ответы вашей LLM и вытягивают архитектуру + веса модели. Вы тратили месяцы и миллионы, а конкурент получает готовый ИИ-движок. 3. Hallucination & Data Leak — ут