Исследователи Национального исследовательского ядерного университета МИФИ разработали новую архитектуру нейросети под названием MambaShield, которая устойчива к так называемым атакам «отравления» данных (data poisoning). Такие атаки — одна из главных угроз для современных систем машинного обучения. Например, когда злоумышленник постепенно внедряет в обучающие данные искажённые примеры, и модель начинает обучаться неправильно. В результате точность может резко упасть — с 95% до 40%. Это особенно опасно для кибербезопасности, беспилотного транспорта, финансов и промышленности. MambaShield умеет отсеивать вредоносные данные ещё на этапе обучения и не даёт им повлиять на результат. Даже если до 30% обучающей выборки окажется заражённой, точность системы остаётся выше 97%. При этом она работает в 4,2 раза быстрее, чем классические трансформеры. Архитектура основана на селективных моделях в пространстве состояний. Проще говоря, система сама решает, какие данные оставить, а какие отбросить, ф
ИИ не сломать: в НИЯУ МИФИ создали нейросеть, устойчивую к «отравлению» данных
21 апреля21 апр
3
2 мин