Корреспондент Гу Бон Хёк
- Исследовательская группа под руководством профессора Хан Чжуна из факультета информатики KAISTразработала технологию «ModelSpy», позволяющую красть ИИ-модели на расстоянии
Международная группа исследователей, в которую входят ученые из Южной Кореи, выявила новую угрозу безопасности, позволяющую похищать «чертежи» ИИ через стену, и предложила методы противодействия.
31 марта исследовательская группа во главе с профессором Хан Чжуна из факультета информатики KAISTсообщила, что в рамках совместного исследования с Национальным университетом Сингапура (NUS) и Китайским университетом Чжэцзян разработала систему атак «ModelSpy», способную с помощью небольшой антенны перехватывать структуру моделей искусственного интеллекта (ИИ) на расстоянии.
Эта технология, подобно устройству для прослушивания, улавливает слабые сигналы, возникающие при работе ИИ, и анализирует его внутреннюю структуру. Исследователи обратили внимание на электромагнитные волны, генерируемые графическим процессором (GPU), отвечающим за вычисления искусственного интеллекта.
Когда ИИ выполняет сложные вычисления, на GPU возникают слабые электромагнитные сигналы, и исследователи успешно восстановили структуру слоев модели и ее подробные настройки, проанализировав паттерны этих сигналов.
Результаты экспериментов показали, что в отношении пяти моделей новейших GPU можно с высокой точностью определить структуру модели искусственного интеллекта даже через стену или на расстоянии до 6 метров. В частности, слои - являющиеся ключевой структурой для моделей глубокого обучения - были определены с точностью до 97,6%.
Данная технология считается серьезной угрозой безопасности, поскольку позволяет осуществлять атаку с помощью небольшой антенны, которую можно поместить в сумку, без необходимости прямого проникновения на сервер или установки вредоносного кода, как в случае традиционных хакерских атак.
Исследовательская группа считает, что в случае злоупотребления этой технологией ключевые ИИ-активы компаний могут утечь за пределы организации, и предложила соответствующие меры противодействия, такие как создание электромагнитных помех и обфускация вычислений. Данная работа оценивается как пример ответственного исследования в области безопасности, поскольку она выходит за рамки простой демонстрации атаки и предлагает реалистичные меры защиты.
«Данное исследование показывает, что системы ИИ могут подвергаться новым атакам даже в физической среде» - сказал профессор Хан Чжун, добавив: «Для защиты ключевой инфраструктуры ИИ, такой как системы автономного вождения или объекты государственной инфраструктуры, важно создать систему «кибер-физической безопасности», охватывающую как аппаратное, так и программное обеспечение».
Результаты данного исследования представлены на «NDSS (Network and Distributed System Security Symposium) 2026», наиболее авторитетной научной конференции в области компьютерной безопасности.
nbgkoo@heraldcorp.com
#южнаякорея #корея #политика #экономика #промышленность #технология #медицина #бизнес #финансы #общество #искусство #культура #искусственныйинтеллект #машинноеобучение #гаджеты #компьютер #программирование #азия