Найти в Дзене
SecureTechTalks

🤖 Когда ИИ решает, кто "подозрительный": как сделать это честно

🤖 Когда ИИ решает, кто "подозрительный": как сделать это честно? Алгоритмы могут быть не хуже людей… но и не лучше, если дискриминируют. 🚨 А в чём вообще проблема? Представьте, что ваша безопасность зависит от работы алгоритма. Этот алгоритм — система обнаружения "аномалий": он решает, кто ведёт себя подозрительно. И вот незадача: он чаще ошибается, если вы, скажем, пожилой человек. Или женщина. Несправедливо? Очень. Но вполне реально. 🧠 Что придумали учёные? Исследователи из Гонконга создали систему под названием FairAD — это такая "честная нейросеть", которая выявляет подозрительное поведение без предвзятости. То есть: ➖Она не судит по полу, возрасту или цвету кожи ➖Не путает “другого” с “опасным” ➖И всё ещё хорошо ловит реальных нарушителей 🔍 Как это работает? Допустим, у нас есть куча людей (или операций, или событий в сети). Алгоритм должен найти тех, кто выбивается из общего поведения. Для этого он: 1⃣ Приводит всех “нормальных” к одному шаблону 2⃣ Только потом сра

🤖 Когда ИИ решает, кто "подозрительный": как сделать это честно?

Алгоритмы могут быть не хуже людей… но и не лучше, если дискриминируют.

🚨 А в чём вообще проблема?

Представьте, что ваша безопасность зависит от работы алгоритма. Этот алгоритм — система обнаружения "аномалий": он решает, кто ведёт себя подозрительно.

И вот незадача: он чаще ошибается, если вы, скажем, пожилой человек. Или женщина.

Несправедливо? Очень. Но вполне реально.

🧠 Что придумали учёные?

Исследователи из Гонконга создали систему под названием FairAD — это такая "честная нейросеть", которая выявляет подозрительное поведение без предвзятости.

То есть:

➖Она не судит по полу, возрасту или цвету кожи

➖Не путает “другого” с “опасным”

➖И всё ещё хорошо ловит реальных нарушителей

🔍 Как это работает?

Допустим, у нас есть куча людей (или операций, или событий в сети). Алгоритм должен найти тех, кто выбивается из общего поведения. Для этого он:

1⃣ Приводит всех “нормальных” к одному шаблону

2⃣ Только потом сравнивает с этим “шаблоном” новых людей

3⃣ Если кто-то сильно отличается — возможно, это аномалия

4⃣ И при этом он не знает, кто мужчина, кто женщина, кто откуда.

5⃣ Чистая логика — без предвзятых ярлыков.

🧪 Проверили на практике?

Да!

➖На реальных базах данных (судимости, финансы, медицина)

➖Даже когда данные были специально "перекошены" (например, больше мужчин, чем женщин)

Результат:

➖Находит угрозы почти так же хорошо, как лучшие ИИ

➖Но делает это справедливо — не зависая на одних и тех же группах людей

➖F1-скор на COMPAS (чувствительный к расовым предвзятостям): Im-FairAD: 47.49%, выше всех конкурентов.

🧠 Точно ли это нужно?

В мире, где всё больше решений принимается алгоритмами — важно, чтобы алгоритмы не были токсичными.

Особенно в кибербезопасности, где “ошибка” может означать блокировку, бан или угрозу.

Именно такие проекты, как FairAD, учат ИИ быть не просто умным, а ещё и этичным.

Stay secure and read SecureTechTalks 📚

#SecureTechTalks #ИИ #Безопасность #Аномалии #Этика #AI #FairAI #CyberSecurity #ML #Антидискриминация #AIForGood