Нейронка в угоне: как атакуют и защищают модели искусственного интеллекта • Необходимость обеспечения безопасности моделей ИИ в бизнес-процессах и применение ИИ киберпреступниками. • Атака на модели ИИ - выведение нейросети из штатного режима работы. • Злоумышленники используют недостаточную подготовку данных или определенные способы обучения для атак. • Whitebox-атака - когда злоумышленник знает модель, параметры и архитектуру. • Blackbox-атака - доступ к моделям через программный интерфейс API с ограниченными знаниями о функционале. • Эксплуатация небольших возмущений во входных данных - основной способ атак на модели ИИ. • Отравление данных - получение бэкдора к модели через невидимые изменения в данных. • Атаки на модели ИИ могут привести к репутационным потерям, утечкам данных и проблемам с защитой авторских прав. • Механизмы защиты от атак на модели ИИ: обучение моделей, маркировка данных, санация данных. • Развитие методов борьбы с атаками на ИИ-модели в продуктах кибербезопасн
Нейронка в угоне: как атакуют и защищают модели искусственного интеллекта
2 апреля 20252 апр 2025
1
1 мин