Системами распознавания лиц сегодня никого не удивишь. В различных шпионских боевиках герои и злодеи с лёгкостью обходят их, заставляя системы «видеть» кого-то другого вместо себя. Команда из компании по кибербезопасности McAfee организовала атаку на систему распознавания лиц, аналогичную тем, которые в настоящее время используются в аэропортах для проверки паспортов. Используя машинное обучение, они смогли обмануть систему, продемонстрировав тем самым, что она совершенно не является гарантом безопасности.
Самое интересное, что для этого не потребовалось никакого специального шпионского софта, а только общедоступный алгоритм для редактирования изображений, известный как CycleGAN. С помощью этого алгоритма можно, к примеру, поменять погоду на фотографии или перевести изображение на ней в стиль определённого художника. Команда использовала не софт напрямую, но воспользовалась его открытым исходным кодом, чтобы создать «фото» несуществующего человека, которым заменялось изображение того, кто проходил через систему. По словам специалистов, ещё проще «заставить систему думать», что она видит кого-то другого, глядя на того, кто пытается её обойти.
Стоит, правда, заметить, что у команды не было доступа к реальной системе, используемой, например, аэропортами для идентификации пассажиров, и она воспользовалась, опять же, софтом с открытым исходным кодом, предназначенным для тех же целей. Несмотря на это, по мнению одного из участников исследования, алгоритмы распознавания лиц очень похожи, поэтому атака, скорее всего, сработает даже на реальной системе аэропорта. Есть и существенное ограничение — сегодня такая атака требует очень много времени и ресурсов (крайне мощных компьютеров).
Специалисты McAfee отметили, что их цель в конечном счёте состоит в том, чтобы продемонстрировать присущие этим системам ИИ уязвимости, чтобы разработчики понимали, с чем имеют дело, и постоянно их совершенствовали. Есть и другие технические попытки обмануть системы распознавания лиц. Команда Чикагского университета недавно выпустила Fawkes, инструмент, предназначенный для «маскировки» лиц, который слегка изменяет ваши фотографии в социальных сетях, чтобы обмануть системы ИИ, полагающиеся на базы данных миллиардов таких фотографий. Исследователи из фирмы Kneron, занимающейся технологиями ИИ, также показали, как маски могут обмануть системы распознавания лиц, уже используемые во всем мире. В общем, прогресс не стоит на месте.
Подписывайтесь на S&F, канал в Telegram и чат для дискуссий на научные темы.