Учёные из Университета Северной Каролины разработали новый способ атаковать системы компьютерного зрения, применяемые в искусственном интеллекте. Метод, получивший название RisingAttacK, позволяет скрытно изменять изображение так, чтобы ИИ воспринимал его совсем иначе — вплоть до полной потери способности распознавать реальные объекты. Техника RisingAttacK работает поэтапно: сначала анализируется изображение и выделяются ключевые визуальные признаки, которые система ИИ использует для распознавания объектов. Затем рассчитывается, насколько чувствителен алгоритм к изменениям этих признаков. После этого в изображение вносятся минимальные, но целенаправленные искажения, которые сбивают ИИ с толку. В результате картинка остаётся прежней для человека, но становится «невидимой» для алгоритма. Например, можно «скрыть» автомобили или пешеходов от беспилотной машины. Метод протестировали на четырёх популярных нейросетевых моделях компьютерного зрения: ResNet-50, DenseNet-121, ViT-B и DEiT-B — во