Представьте: вы идёте по улице, камера “умного города” ловит ваше лицо — и… ничего.
Алгоритм моргает пикселями и шепчет: “Ошибка 404, человек не найден”.
Нет, вы не вампир и не супергерой с невидимым плащом.
Просто вы — темнокожий.
Так, собственно, и началась одна из самых громких историй об “умных” системах, которые оказались не такими уж и умными.
📸 Немного истории: когда камера “потеряла фокус на человечность”
В 2018 году исследовательница MIT Joy Buolamwini провела эксперимент с тремя популярными системами искусственного интеллекта от IBM, Microsoft и Face++.
И выяснила, что алгоритмы определяли пол человека с почти нулевой ошибкой у белых мужчин (0,8%),
но допускали ошибку до 34,7% у темнокожих женщин.
То есть, грубо говоря, ИИ мог уверенно сказать, что Бенедикт Камбербэтч — мужчина,
но не был уверен, что Опра Уинфри — женщина.
Как говорится, “кто не знает Опру, тот пусть выключит Wi-Fi”.
📊 Цифры, которые заставили искусственный интеллект покраснеть
● Ошибка у светлокожих мужчин: ~0,8%
● Ошибка у тёмнокожих женщин: ~34,7%
● Разница в точности: более чем в 40 раз
Другими словами, если бы ИИ сдавал экзамен по равноправию,
он бы не просто завалил тест — он бы даже не понял, что это тест.
🧠 Почему ИИ “слепнет”: дело не в зле, а в данных
Искусственный интеллект — не расист. Он просто… глуповат.
Он учится на тех данных, которые ему дают.
А если в его “учебнике по лицам” 80% — белые мужчины в костюмах,
то неудивительно, что при виде афроамериканки он зависает,
как старый Windows при открытии 20 вкладок в Chrome.
Программисты признаются:
многие датасеты, на которых обучаются алгоритмы распознавания лиц,
создавались в Европе и США — и, сюрприз, содержали до 75–90% изображений людей со светлой кожей.
Вот и результат: для ИИ человечество выглядело, как офис Google в Калифорнии —
все улыбаются, все белые, все пьют латте.
⚙️ Проблема не только в камерах — а в том, кто их делает
Компания Amazon в своё время пыталась внедрить собственную систему распознавания лиц Rekognition в полиции.
И что вы думаете?
Алгоритм уверенно “узнавал” чернокожих конгрессменов США как преступников из базы данных.
Да, ИИ буквально “арестовал” людей по фото — заочно, с ошибкой в 28%.
Как говорится, искусственный интеллект — интеллект-то искусственный,
а вот последствия — самые настоящие.
💀 Когда технологии делают фейлы с человеческим лицом
В 2020 году афроамериканец Роберт Уильямс был арестован в Мичигане по ошибке:
алгоритм распознавания лиц решил, что он — преступник с камеры наблюдения.
Полиция поверила машине, не проверила факты — и вот человек сутки в изоляторе.
Позже власти признали ошибку.
ИИ — промолчал.
Потому что, конечно, у него пока нет совести. Только логика. И та — под вопросом.
🧩 Что изменилось с тех пор
Компании вроде IBM, Microsoft и Google публично признали проблему.
IBM даже временно приостановила продажу своих систем распознавания лиц,
а Microsoft начала требовать “этическую оценку” каждого внедрения.
С тех пор алгоритмы действительно стали умнее.
По данным NIST (Национального института стандартов и технологий США),
в 2024 году разрыв в точности сократился до 3–5%,
но полностью не исчез.
Даже сейчас, если взять 1000 фото людей разного цвета кожи,
ИИ ошибается примерно в 15 случаях у темнокожих и в 5 — у белых.
Прогресс есть, но пока что — не победа.
🔍 Почему это важно: ИИ учится у нас
Ведь алгоритмы — как дети.
Если ты кормишь ребёнка только мультиками про белых принцесс,
он потом не поверит, что бывает Мулан.
То же с ИИ:
если в данных нет разнообразия,
он “учится” видеть мир так же узко, как те, кто эти данные создаёт.
И это не только вопрос этики,
но и вопрос безопасности.
Когда ИИ принимает решения — кого пускать в здание,
кого подозревать, а кого награждать,
ошибка на 30% — это не баг. Это трагедия.
⚡ Что делает мир
Сегодня ведущие технокомпании инвестируют в “инклюзивные” ИИ-системы.
Google запустил проект по улучшению распознавания разных оттенков кожи (10 уровней вместо старых 3).
Apple добавил “тренировки” для алгоритмов камер, чтобы те одинаково корректно определяли лица при любом освещении.
В России тоже идут эксперименты — особенно в сфере “умного города” и видеонаблюдения.
Но, как признают разработчики,
наши датасеты всё ещё не дотягивают до нужного уровня разнообразия.
💡 Интересный факт: как ИИ видит мир
Если показать алгоритму тысячу лиц и спросить, где “человек”,
он может ответить:
● на фото кота с очками — “да, это человек”,
● на фото тёмнокожей женщины — “не уверен, качество низкое”.
Парадокс? Нет. Просто в его мире “человеческое лицо” = то, что он видел чаще всего.
ИИ не предвзят, пока не научат его быть таким.
А учим его — мы.
🧠 Вывод
Проблема не в том, что ИИ “расист”.
Он не умеет ненавидеть — он умеет копировать.
Он — зеркало общества.
Если в этом зеркале отражается предвзятость,
значит, пора не ИИ чинить, а нас самих прокачивать.
И да, 2025-й уже на дворе, а мы всё ещё обсуждаем,
что алгоритмы путают людей по цвету кожи.
Это как если бы в XXI веке навигатор всё ещё кричал: “Поверните налево через вчера”.
🔥 В итоге
ИИ наконец начинает “видеть” всех нас.
Но до момента, когда он перестанет судить по оттенку кожи,
а начнёт оценивать по человеческим качествам —
пройдёт ещё не один апдейт.
Так что, если вас когда-нибудь не узнает камера,
просто улыбнитесь.
Может, это не дискриминация — а просто старая версия ПО.
❤️ Поддержи умный контент, а не тупые алгоритмы
Если тебе зашёл этот материал —
💬 напиши в комментариях, как ты относишься к ИИ, который делает ошибки “по-человечески”.
📲 Поделись этой статьёй — пусть больше людей узнают, как устроен искусственный интеллект изнутри.
👍 Поставь лайк,
и подпишись на канал, чтобы не пропустить следующий “цифровой борщ” там мы разберём, почему нейросети боятся котов и любят мемы 😎