Для этого появился совершенно новый способ. Его специфическое отличие заключается в том, что изображение конкретной личности не переделывают в другое, а всего лишь маскируют его портрет.
Сотрудники организации Adversa AI из Израиля, которая занимается развитием искусственного интеллекта, продемонстрировали любопытную новинку – способ ввести в заблуждение системы распознавания лиц, для чего на фотоснимки добавляется особый вид маскировочного шума. По своей сути эта маскировка – не что иное как очень мелкие фрагменты данных, которые позволяют вынудить систему распознавания образов прийти к решению, что на фотографии представлена совершенно иная личность. В качестве примера израильские разработчики показали, как у них получилось обвести вокруг пальца подобную систему PimEyes, в результате чего она разглядела во внешности Adversa AI Алекса Полякова за небезызвестного Илона Маска.
Так называемые состязательные атаки (adversarial attacks) постоянно прогрессируют с течением времени, как и методы противостояния им. Но разработанная в израильской компании система, именуемая «Состязательный осьминог» (Adversarial Octopus) стоит особняком в этой категории.
Основное: «осьминожная» метода не переделывает фотопортрет персонажа до неузнаваемости, а всего лишь накладывает на него маскировку. Кроме того, помимо добавленного шума из микрочастиц данных к изображению, с помощью которых происходило обучение искусственного интеллекта (это называется «атака отравления»), израильская разработка подразумевает внедрение изменений в картинку, используемую ИИ для проверки замаскированного фото, и здесь не требуется понимать, как происходило обучение конкретной системы распознавания лиц.