Найти в Дзене
Borsch.Digital [B4B]

🤖 Умный, но предвзятый: как ИИ всё ещё не выучил урок равенства

Умный, но предвзятый: как ИИ всё ещё не выучил урок равенства
Умный, но предвзятый: как ИИ всё ещё не выучил урок равенства

Представьте: вы идёте по улице, камера “умного города” ловит ваше лицо — и… ничего.
Алгоритм моргает пикселями и шепчет: “Ошибка 404, человек не найден”.
Нет, вы не вампир и не супергерой с невидимым плащом.
Просто вы — темнокожий.

Так, собственно, и началась одна из самых громких историй об “умных” системах, которые оказались не такими уж и умными.

📸 Немного истории: когда камера “потеряла фокус на человечность”

В 2018 году исследовательница MIT Joy Buolamwini провела эксперимент с тремя популярными системами искусственного интеллекта от IBM, Microsoft и Face++.
И выяснила, что алгоритмы определяли пол человека
с почти нулевой ошибкой у белых мужчин (0,8%),
но допускали
ошибку до 34,7% у темнокожих женщин.

То есть, грубо говоря, ИИ мог уверенно сказать, что Бенедикт Камбербэтч — мужчина,
но не был уверен, что Опра Уинфри — женщина.
Как говорится, “кто не знает Опру, тот пусть выключит Wi-Fi”.

📊 Цифры, которые заставили искусственный интеллект покраснеть

● Ошибка у светлокожих мужчин: ~0,8%

● Ошибка у тёмнокожих женщин: ~34,7%

● Разница в точности: более чем в 40 раз

Другими словами, если бы ИИ сдавал экзамен по равноправию,

он бы не просто завалил тест — он бы даже не понял, что это тест.

🧠 Почему ИИ “слепнет”: дело не в зле, а в данных

Искусственный интеллект — не расист. Он просто… глуповат.
Он учится на тех данных, которые ему дают.
А если в его “учебнике по лицам” 80% — белые мужчины в костюмах,
то неудивительно, что при виде афроамериканки он зависает,
как старый Windows при открытии 20 вкладок в Chrome.

Программисты признаются:
многие датасеты, на которых обучаются алгоритмы распознавания лиц,
создавались в Европе и США — и, сюрприз, содержали
до 75–90% изображений людей со светлой кожей.

Вот и результат: для ИИ человечество выглядело, как офис Google в Калифорнии —

все улыбаются, все белые, все пьют латте.

⚙️ Проблема не только в камерах — а в том, кто их делает

Компания Amazon в своё время пыталась внедрить собственную систему распознавания лиц Rekognition в полиции.
И что вы думаете?
Алгоритм уверенно “узнавал” чернокожих конгрессменов США как преступников из базы данных.

Да, ИИ буквально “арестовал” людей по фото — заочно, с ошибкой в 28%.
Как говорится, искусственный интеллект — интеллект-то искусственный,
а вот последствия — самые настоящие.

💀 Когда технологии делают фейлы с человеческим лицом

В 2020 году афроамериканец Роберт Уильямс был арестован в Мичигане по ошибке:
алгоритм распознавания лиц решил, что он — преступник с камеры наблюдения.
Полиция поверила машине, не проверила факты — и вот человек сутки в изоляторе.
Позже власти признали ошибку.
ИИ — промолчал.
Потому что, конечно, у него пока нет совести. Только логика. И та — под вопросом.

ai
ai

🧩 Что изменилось с тех пор

Компании вроде IBM, Microsoft и Google публично признали проблему.
IBM даже временно приостановила продажу своих систем распознавания лиц,
а Microsoft начала требовать “этическую оценку” каждого внедрения.

С тех пор алгоритмы действительно стали умнее.
По данным NIST (Национального института стандартов и технологий США),
в 2024 году разрыв в точности сократился до 3–5%,
но полностью не исчез.
Даже сейчас, если взять 1000 фото людей разного цвета кожи,
ИИ
ошибается примерно в 15 случаях у темнокожих и в 5 — у белых.

Прогресс есть, но пока что — не победа.

🔍 Почему это важно: ИИ учится у нас

Ведь алгоритмы — как дети.
Если ты кормишь ребёнка только мультиками про белых принцесс,
он потом не поверит, что бывает Мулан.

То же с ИИ:
если в данных нет разнообразия,
он “учится” видеть мир так же узко, как те, кто эти данные создаёт.

И это не только вопрос этики,
но и вопрос безопасности.
Когда ИИ принимает решения — кого пускать в здание,
кого подозревать, а кого награждать,
ошибка на 30% — это не баг. Это трагедия.

⚡ Что делает мир

Сегодня ведущие технокомпании инвестируют в “инклюзивные” ИИ-системы.
Google запустил проект по улучшению распознавания разных оттенков кожи (10 уровней вместо старых 3).
Apple добавил “тренировки” для алгоритмов камер, чтобы те одинаково корректно определяли лица при любом освещении.
В России тоже идут эксперименты — особенно в сфере “умного города” и видеонаблюдения.
Но, как признают разработчики,
наши датасеты всё ещё не дотягивают до нужного уровня разнообразия.

💡 Интересный факт: как ИИ видит мир

Если показать алгоритму тысячу лиц и спросить, где “человек”,

он может ответить:

● на фото кота с очками — “да, это человек”,

● на фото тёмнокожей женщины — “не уверен, качество низкое”.

Парадокс? Нет. Просто в его мире “человеческое лицо” = то, что он видел чаще всего.

ИИ не предвзят, пока не научат его быть таким.

А учим его — мы.

🧠 Вывод

Проблема не в том, что ИИ “расист”.
Он не умеет ненавидеть — он умеет копировать.
Он — зеркало общества.
Если в этом зеркале отражается предвзятость,
значит, пора не ИИ чинить, а нас самих прокачивать.

И да, 2025-й уже на дворе, а мы всё ещё обсуждаем,
что алгоритмы путают людей по цвету кожи.
Это как если бы в XXI веке навигатор всё ещё кричал: “Поверните налево через вчера”.

🔥 В итоге

ИИ наконец начинает “видеть” всех нас.
Но до момента, когда он перестанет судить по оттенку кожи,
а начнёт оценивать по человеческим качествам —
пройдёт ещё не один апдейт.

Так что, если вас когда-нибудь не узнает камера,
просто улыбнитесь.
Может, это не дискриминация — а просто старая версия ПО.

❤️ Поддержи умный контент, а не тупые алгоритмы

Если тебе зашёл этот материал —
💬 напиши в комментариях, как ты относишься к ИИ, который делает ошибки “по-человечески”.
📲 Поделись этой статьёй — пусть больше людей узнают, как устроен искусственный интеллект изнутри.
👍 Поставь лайк,
и подпишись на канал, чтобы не пропустить следующий “цифровой борщ” там мы разберём, почему нейросети боятся котов и любят мемы 😎