Найти в Дзене
SecureTechTalks

🔥 Могут ли модели решать за нас, кому давать доступ к данным

🔥 Могут ли модели решать за нас, кому давать доступ к данным? Человек чаще всего фейлит при выдаче разрешений приложениям. Усталость, автоматизм, и выдано ещё одно «Allow», открывающее доступ к контактам. А что, если решение будет принимать не человек, а AI? Недавнее исследование ETH Zurich и Huawei показало: LLM способны принимать решения о доступе к данным точнее и осознаннее, чем большинство пользователей. 🤖 Эксперимент 📌 Исследователи собрали 307 естественных “privacy statements”: мини-описаний того, как человек относится к приватности: «Даю доступ только когда необходимо», «Хочу максимум удобства», «Никогда не делюсь локацией без крайней нужды». 📌 Затем 393 участника приняли 14 682 реальных решений по разрешениям Android-приложений. 📌 Параллельно LLM принимала решения за каждого участника, сначала в общем виде, затем персонализированно, используя именно их “privacy statement”. 📌 После этого люди сравнивали свои решения с решениями ИИ и говорили, чью логику считают лучш

🔥 Могут ли модели решать за нас, кому давать доступ к данным?

Человек чаще всего фейлит при выдаче разрешений приложениям. Усталость, автоматизм, и выдано ещё одно «Allow», открывающее доступ к контактам.

А что, если решение будет принимать не человек, а AI?

Недавнее исследование ETH Zurich и Huawei показало: LLM способны принимать решения о доступе к данным точнее и осознаннее, чем большинство пользователей.

🤖 Эксперимент

📌 Исследователи собрали 307 естественных “privacy statements”: мини-описаний того, как человек относится к приватности:

«Даю доступ только когда необходимо»,

«Хочу максимум удобства»,

«Никогда не делюсь локацией без крайней нужды».

📌 Затем 393 участника приняли 14 682 реальных решений по разрешениям Android-приложений.

📌 Параллельно LLM принимала решения за каждого участника, сначала в общем виде, затем персонализированно, используя именно их “privacy statement”.

📌 После этого люди сравнивали свои решения с решениями ИИ и говорили, чью логику считают лучше.

💡 LLM в целом умнее среднего человека

🔍 В задачах с понятным «правильным» ответом (например, доступ к микрофону для звонка):

LLM давали 100% корректных ответов.

👥 В субъективных сценариях:

LLM совпадали с большинством пользователей в 70–86% случаев.

Но есть момент, который лично мне кажется ключевым:

⚔️ В чувствительных сценариях LLM действовали более безопасно, чем люди

Для запросов, которые не должны быть разрешены (over-privileged запросы):

большинство людей ставили “Allow” по привычке 😬

LLM в 67–100% случаев говорили “Deny”,

тем самым защищая пользователя от собственной неосторожности.

🎯 Персонализация

Когда в систему добавляли личное “privacy statement”, происходило интересное:

📈 Для части людей точность возрастала до +50pp, иногда доходя до 100% совпадения.

📉 У других наоборот, падала:

если человек писал “Я доверяю всем”, но на деле запрещал, LLM следовала заявленной логике, а не реальному поведению.

🔍 Факторы, влияющие на точность:

➖чем длиннее и конкретнее privacy-statement → тем лучше

➖люди с крайними позициями (“всё запрещаю” / “всё разрешаю”) идеально персонализируются

➖несоответствия между заявленным и реальным резко ухудшают качество

🧠 Люди меняют решения под влиянием объяснения LLM

Самый неожиданный эффект:

Когда человек не согласен с решением ИИ, но читает объяснение, то 48% меняют своё первоначальное решение.

Причём если LLM рекомендует “Deny”:

➡️ 59% людей соглашаются, даже если сами бы разрешили.

ИИ работает как «security-nudge», который мягко подталкивает к более безопасным действиям.

🔗 Полный текст исследования

Stay secure and read SecureTechTalks 📚

#кибербезопасность #privacy #llm #androidsecurity #ai #securityresearch #dataprotection #mobileprivacy #aiethics #securetech