Найти тему
programmeerija

как ИИ используется для борьбы с вредоносными алгоритмами

Возможности искусственного интеллекта растут, и легко забыть, что его защита несовершенна. Однако ученые выяснили, что уязвимостью ИИ могут воспользоваться даже другие алгоритмы. В результате злоумышленник может повлиять на работу автономной системы вождения, программы интеллектуального анализа текста или компьютерного зрения. Вот как технологии помогают бизнесу обезопасить программы искусственного интеллекта.

В сентябре 2019 года Национальный институт стандартов и технологий США опубликовал свое первое в истории предупреждение об атаке на коммерческий алгоритм искусственного интеллекта.

Аналитики в сфере информационной безопасности определили, что целью стала программа Proofpoint, которая использует машинное обучение для определения спам-рассылок. Система создавала заголовки писем и присваивала им оценку вероятности того, что сообщение было спамом. Однако анализируя эти оценки и содержание писем, алгоритм смог создать клон модели машинного обучения и создавать рассылки, которые не могли быть обнаружены.

Возможно, за этим сообщением последуют и многие другие. По мере распространения ИИ появляются и новые возможности для использования его уязвимостей. Это привело к появлению компаний, которые ищут слабые места в алгоритмах, чтобы заметить вредоносные действия до того, как они нанесут ущерб.