Новое исследование, проведенное учеными из Северо-Западного политехнического университета и Гонконгского политехнического университета, показало, что модели глубокого обучения (DL), используемые в системах дистанционного зондирования, подвержены как физическим, так и цифровым атакам. Несмотря на их широкое применение в правительственном разведывании, мониторинге окружающей среды и других сферах, эффективность этих технологий может быть серьезно подорвана. Исследователи провели обзор существующих работ и разработали методику для оценки надежности различных моделей DL. В ходе экспериментов они выявили уязвимости, которые могут быть использованы злоумышленниками. Например, атаки с использованием шумов, таких как «соль-перец» и погодные условия, а также цифровые атаки, такие как метод градиентного спуска, показали, что модели могут легко ошибаться. По словам ведущего автора исследования, профессора Шаохуи Мэя, важно, чтобы разработчики и пользователи технологий осознавали эти уязвимости и
Исследование выявило уязвимость ИИ в системах дистанционного зондирования
18 октября 202418 окт 2024
1
~1 мин