Добавить в корзинуПозвонить
Найти в Дзене
Телеспутник

Разработаны новые подходы для повышения надёжности систем машинного обучения

Учёные МГУ повышают устойчивость ИИ-систем к мошенничеству в банковских транзакциях. Работа нацелена на улучшение устойчивости моделей к случаям, когда злоумышленники обманывают автоматические системы детекции, подстраивая параметры транзакций. Исследователи факультета вычислительной математики и кибернетики Московского государственного университета имени М.В. Ломоносова разработали новые подходы для повышения надёжности систем машинного обучения, которые применяются в борьбе с банковским мошенничеством. «Машинное обучение даёт мощный инструмент для борьбы с фродом, но многие модели оказываются уязвимыми при намеренном искажении входных данных. Мы сосредоточились на повышении устойчивости таких моделей в условиях активного противодействия со стороны злоумышленников», — Евгений Ильюшин, ассистент кафедры информационной безопасности ВМК МГУ. В рамках исследования, учёные применили ряд алгоритмов машинного обучения — от логистической регрессии до градиентного бустинга — на открытых набора

Учёные МГУ повышают устойчивость ИИ-систем к мошенничеству в банковских транзакциях. Работа нацелена на улучшение устойчивости моделей к случаям, когда злоумышленники обманывают автоматические системы детекции, подстраивая параметры транзакций.

Источник: 123rf
Источник: 123rf

Исследователи факультета вычислительной математики и кибернетики Московского государственного университета имени М.В. Ломоносова разработали новые подходы для повышения надёжности систем машинного обучения, которые применяются в борьбе с банковским мошенничеством.

«Машинное обучение даёт мощный инструмент для борьбы с фродом, но многие модели оказываются уязвимыми при намеренном искажении входных данных. Мы сосредоточились на повышении устойчивости таких моделей в условиях активного противодействия со стороны злоумышленников», — Евгений Ильюшин, ассистент кафедры информационной безопасности ВМК МГУ.

В рамках исследования, учёные применили ряд алгоритмов машинного обучения — от логистической регрессии до градиентного бустинга — на открытых наборах данных с реальными транзакциями. Первичные результаты показали высокую точность (до 0.99 ROC-AUC), однако при проведении атак, таких как HopSkipJump, ZOO и Boundary, эффективность моделей резко снижалась (до 0.67 ROC-AUC).

Для решения этой проблемы исследователи применили методы повышения робастности — устойчивости к внешним вмешательствам. Были протестированы фильтр Калмана, экспоненциальное сглаживание и метод главных компонент (PCA), а также состязательное обучение. Благодаря этому удалось существенно повысить надёжность: метрики качества при атаке выросли до 0.86 ROC-AUC и 0.81 Average Precision.