Добавить в корзинуПозвонить
Найти в Дзене
Мастер AI

ИИ-расизм: почему алгоритмы недолюбливают темнокожих.

"Ваше лицо не распознано" — эта надпись появлялась снова и снова, пока темнокожий студент Джой Буамави не понял: проблема не в нём, а в алгоритме. Его исследование шокировало мир: системы распознавания лиц ошибаются у темнокожих в 35% случаев против 1% у белых. Но это лишь верхушка айсберга... Камера ноутбука упорно отказывается фокусироваться на смуглом лице 22-летней Кейши. "Подождите, дайте мне осветлить лицо", — с привычной грустью говорит она, включая дополнительную лампу. Её белый одногруппник смеётся: "У меня вообще нет таких проблем!" Кейша молча вспоминает, как в аэропорту система биометрического контроля трижды отправляла её к офицеру — алгоритм не мог сопоставить её фото в паспорте с живым лицом. "Технологии будущего, а отношение как в 50-х", — шепчет она, поправляя светоотражающий шарф под подбородком. В лаборатории MIT доктор Джой Буамави демонстрирует шокирующий эксперимент: десять темнокожих добровольцев по очереди подходят к камере распознавания лиц. Система ошибается в
Оглавление
https://avatars.mds.yandex.net/get-shedevrum/14081892/img_e73dae578d1911ef9ca05a91427dac1c/orig
https://avatars.mds.yandex.net/get-shedevrum/14081892/img_e73dae578d1911ef9ca05a91427dac1c/orig

"Ваше лицо не распознано" — эта надпись появлялась снова и снова, пока темнокожий студент Джой Буамави не понял: проблема не в нём, а в алгоритме. Его исследование шокировало мир: системы распознавания лиц ошибаются у темнокожих в 35% случаев против 1% у белых. Но это лишь верхушка айсберга...

https://avatars.mds.yandex.net/i?id=83a8a91a03764a37af1bfc0984d27306_l-5249054-images-thumbs&n=13
https://avatars.mds.yandex.net/i?id=83a8a91a03764a37af1bfc0984d27306_l-5249054-images-thumbs&n=13

Пролог: Лицо, которого не существует.

Камера ноутбука упорно отказывается фокусироваться на смуглом лице 22-летней Кейши. "Подождите, дайте мне осветлить лицо", — с привычной грустью говорит она, включая дополнительную лампу. Её белый одногруппник смеётся: "У меня вообще нет таких проблем!" Кейша молча вспоминает, как в аэропорту система биометрического контроля трижды отправляла её к офицеру — алгоритм не мог сопоставить её фото в паспорте с живым лицом. "Технологии будущего, а отношение как в 50-х", — шепчет она, поправляя светоотражающий шарф под подбородком.

https://mf.b37mrtl.ru/files/oldfiles/usa/fcc-internet-neutrality-usa/internet-access2.si.jpg
https://mf.b37mrtl.ru/files/oldfiles/usa/fcc-internet-neutrality-usa/internet-access2.si.jpg

Глава 1: Цифровые колонизаторы.

В лаборатории MIT доктор Джой Буамави демонстрирует шокирующий эксперимент: десять темнокожих добровольцев по очереди подходят к камере распознавания лиц. Система ошибается в 7 случаях из 10. "Посмотрите на эти данные, — его голос дрожит от возмущения. — Для светлой кожи точность 99%, для тёмной — 65%. Это не погрешность, это системный сбой!" На экране мелькают примеры: фотоаппараты, которые не фокусируются на тёмных лицах, фильтры, автоматически осветляющие кожу, медицинские ИИ, хуже диагностирующие меланому у чернокожих пациентов. "Мы создали цифровой мир, где быть небелым — значит быть невидимкой", — заключает учёный.

Алгоритмы учатся на данных — но 87% изображений в обучающих выборках составляют лица белых людей. Последствия катастрофичны:

· Камеры автофокуса "не видят" темную кожу;

· Фильтры соцсетей осветляют тон;

· Даже медицинские ИИ хуже диагностируют болезни у небелых пациентов.

Реальный случай: Автоматическая мыльница в дорогом отеле стабильно предлагала "улучшить" фото, делая чернокожих гостей на 2-3 тона светлее.

https://static19.tgcnt.ru/posts/_0/4d/4d67634b5ec4db8722f580ba7765fdfb.jpg
https://static19.tgcnt.ru/posts/_0/4d/4d67634b5ec4db8722f580ba7765fdfb.jpg

Глава 2: Предвзятость в каждом коде.

В кабинете лингвистики профессор Амината разбирает текст, сгенерированный популярным ИИ: "Описание идеального сотрудника: пунктуальный, аккуратный, хорошо говорит по-английски..." — "Вы видите проблему? — спрашивает она студентов. — Алгоритм исключает тех, для кого английский не родной, хотя это никак не влияет на профессиональные качества". Её исследование показывает: системы обработки естественного языка ассоциируют "афроамериканские" имена с негативными словами на 23% чаще. "Когда ИИ анализирует резюме, он уже подсознательно помечает некоторых кандидатов как 'менее подходящих'", — объясняет профессор.

Система распознавания эмоций от крупной IT-компании:

· Верно определяла гнев у белых — 92% случаев;

· У чернокожих — путала улыбку с презрением (ошибка 43%).

"Алгоритм буквально не понимает мимику темнокожих людей", — возмущается эксперт по компьютерному зрению.

https://thumbs.dreamstime.com/b/business-woman-under-glass-ceiling-d-illustration-74595788.jpg
https://thumbs.dreamstime.com/b/business-woman-under-glass-ceiling-d-illustration-74595788.jpg

Глава 3: Цифровой "стеклянный потолок".

Офис кредитного отдела. Менеджер в замешательстве смотрит на два почти идентичных заявления: "Система одобрила белого заявителя, но отказала чернокожему с лучшими показателями". Анализ выявляет ужасающую закономерность: алгоритм учитывал "почтовый индекс" как фактор риска, фактически воспроизводя историческую сегрегацию районов. "Мы думали, что устранили человеческие предрассудки, — признаётся разработчик. — Но предвзятость просто перешла в цифровую форму".

ИИ-рекрутеры дискриминируют кандидатов:

· Резюме с "афроамериканскими" именами получают на 30% меньше откликов;

· Голосовые ассистенты хуже понимают акценты меньшинств;

· Кредитные алгоритмы чаще отказывают чернокожим заёмщикам.

Шокирующий эксперимент: Приложение для макияжа автоматически "улучшало" черты лица, делая их более "европеоидными".

https://cdn.culture.ru/images/6a284605-b9e5-57dd-90f4-789373794ff3
https://cdn.culture.ru/images/6a284605-b9e5-57dd-90f4-789373794ff3

Глава 4: Кто виноват?

Комната разработчиков крупной IT-компании. "Мы не расисты! — горячится молодой программист. — Алгоритм просто учится на данных". Старший коллега качает головой: "А кто собирал эти данные? Кто решал, какие примеры включать?" Статистика удручает: 89% специалистов по ИИ — белые мужчины из среднего класса. "Мы создаём технологии, которые видят мир через призму нашего опыта, — признаёт руководитель проекта. — И называем это 'объективностью'".

Корень проблемы — в человеческих предрассудках:

· 91% разработчиков ИИ — белые мужчины;

· Исторические данные несут скрытые стереотипы;

· Тесты проводятся на "удобных" выборках.

"Мы создаём цифровых расистов, даже не осознавая этого", — признаётся программист из Google.

https://i.pinimg.com/originals/6c/b1/67/6cb167d729a74eeb17ed79baeeb5925d.jpg
https://i.pinimg.com/originals/6c/b1/67/6cb167d729a74eeb17ed79baeeb5925d.jpg

Глава 5: Как исправить ситуацию?

В стартапе NeuralDiversity кипит необычная работа: команда из 15 этнически разнообразных специалистов вручную размечает десятки тысяч изображений. "Да, это медленнее, чем автоматическая выборка, — объясняет CEO. — Зато наш алгоритм распознаёт все оттенки кожи одинаково хорошо". Их прорыв уже используют в больницах для диагностики кожных заболеваний. "Технологии не бывают нейтральными, — говорит разработчица-сомалийка. — Они либо усиливают неравенство, либо помогают его преодолеть".

Передовые компании уже действуют:

· Специальные "разнообразные" датасеты;

· Этические проверки алгоритмов;

· Мультикультурные команды разработчиков.

Но прогресс идёт медленно — требуется переучивать нейросети с нуля.

https://canadiancollegeforhigherstudies.wordpress.com/wp-content/uploads/2014/05/students.jpg
https://canadiancollegeforhigherstudies.wordpress.com/wp-content/uploads/2014/05/students.jpg

Эпилог: Будущее без цифрового апартеида.

На выставке технологий маленькая чернокожая девочка радостно кричит: "Мама, смотри, камера узнала меня!" Её восторг — результат трёх лет труда сотен людей, осознавших проблему. "Это не исправление алгоритмов, — говорит стоящий рядом инженер. — Это исправление нас самих". За окном падает снег, одинаково белый для всех, и в этом есть странная надежда — если даже слепые машины можно научить видеть мир по-новому, возможно, и людям это под силу.

"Технологии должны служить всем людям", — заявляет темнокожий инженер, чья команда создала первый по-настоящему универсальный алгоритм распознавания лиц. Его секрет? 3 года кропотливого сбора данных по всему миру.

Пока ИИ отражает наши недостатки — но у нас есть шанс сделать его лучше себя. Главное — признать проблему и не перекладывать ответственность на "объективные алгоритмы".

Привет, друг! 👋 Тут всё, что ты любишь: тренды, разборы и то, о чём все будут говорить завтра.

💡 Почему подписаться — это MUST?

✅ Контент, который заходит — только самое сочное и полезное.

✅ 0% спама — честно, мы тоже ненавидим лишние уведомления.

✅ Эксклюзивы для своих — подписчики получают плюшки первыми.

Жми ❤️ — если нравится, 🔔 — чтобы не пропустить новое, 👇 ПОДПИСЫВАЙСЯ — если хочешь быть в теме!