🤖 Когда ИИ решает, кто "подозрительный": как сделать это честно? Алгоритмы могут быть не хуже людей… но и не лучше, если дискриминируют. 🚨 А в чём вообще проблема? Представьте, что ваша безопасность зависит от работы алгоритма. Этот алгоритм — система обнаружения "аномалий": он решает, кто ведёт себя подозрительно. И вот незадача: он чаще ошибается, если вы, скажем, пожилой человек. Или женщина. Несправедливо? Очень. Но вполне реально. 🧠 Что придумали учёные? Исследователи из Гонконга создали систему под названием FairAD — это такая "честная нейросеть", которая выявляет подозрительное поведение без предвзятости. То есть: ➖Она не судит по полу, возрасту или цвету кожи ➖Не путает “другого” с “опасным” ➖И всё ещё хорошо ловит реальных нарушителей 🔍 Как это работает? Допустим, у нас есть куча людей (или операций, или событий в сети). Алгоритм должен найти тех, кто выбивается из общего поведения. Для этого он: 1⃣ Приводит всех “нормальных” к одному шаблону 2⃣ Только потом сра
🤖 Когда ИИ решает, кто "подозрительный": как сделать это честно
21 мая 202521 мая 2025
1 мин