Добавить в корзинуПозвонить
Найти в Дзене
записки зубного детектива

Twitter поймали на недопустимой нетолерантности. Посмотрим, как он будет выкручиваться из положения

В нашем параде нетолерантности на этот раз отличился Twitter. Товарищи объявили конкурс, чтобы выявить недостатки алгоритма в области предвзятости программного обеспечения. Думаю, что организаторы сами немного пожалели о том, что сделали, ибо результаты были крайне неутешительными. Зато теперь есть куда ломать алгоритм дальше. Оказалось, что алгоритм обрезки изображений Twitter предпочитает более молодые лица и светлую кожу. Если на картинке нарисован старый негр и молодой белый, то с большой степенью вероятности алгоритм обрежет негра и оставит белого. Некий Богдан Кулинич, аспирант швейцарского университета EFPL, провел замечательную работу и лучше всех показал наличие проблемы. Он сгенерировал множество человеческих лиц и пропустил их через алгоритм обрезки, чтобы увидеть, на что ориентируется программное обеспечение. Для исключения влияния прочих неожиданных факторов, он брал одно и то же лицо, но с помощью разного ПО менял ему постепенно цвет кожи, возраст, цвет волос и т.д. и т.п

В нашем параде нетолерантности на этот раз отличился Twitter. Товарищи объявили конкурс, чтобы выявить недостатки алгоритма в области предвзятости программного обеспечения.

Думаю, что организаторы сами немного пожалели о том, что сделали, ибо результаты были крайне неутешительными. Зато теперь есть куда ломать алгоритм дальше.

Оказалось, что алгоритм обрезки изображений Twitter предпочитает более молодые лица и светлую кожу. Если на картинке нарисован старый негр и молодой белый, то с большой степенью вероятности алгоритм обрежет негра и оставит белого.

Некий Богдан Кулинич, аспирант швейцарского университета EFPL, провел замечательную работу и лучше всех показал наличие проблемы. Он сгенерировал множество человеческих лиц и пропустил их через алгоритм обрезки, чтобы увидеть, на что ориентируется программное обеспечение.

-2

Для исключения влияния прочих неожиданных факторов, он брал одно и то же лицо, но с помощью разного ПО менял ему постепенно цвет кожи, возраст, цвет волос и т.д. и т.п.

Ну, и выяснилось, что алгоритм гораздо чаще фокусируется на молодых, светлых и стройных людях, желательно женщинах, бракуя более старых, толстых и темных.

Кулинич получил за это открытие свои призовые 3,5 тысячи долларов, а компания пошла думать, как заставить алгоритм делать все наоборот — обрезать молодых, белых и стройных в угоду старым, цветным и толстым.

-3

Были и другие участники, отметившие такие же тенденции. Они доказали, что алгоритм обрезает фотографии, оставляя вне кадра пожилых людей и инвалидов. Бережет, так скажем, нашу психику и подсовывает читателям то, что не должно его расстраивать.

Даже наличие обыкновенных очков для зрения увеличивало вероятность того, что алгоритм обрежет этого человека и оставит человека без очков.

-4

Но совсем уж неприкрытый расизм обнаружили в шрифтах. При публикации фотографий с различными надписями (например мемчиков, где фотографии одинаковые, а подписи бывают на разных языках) алгоритм обрезал арабские шрифты, оставляя латинские. Арабы «фшоке» и ярости.

Еще один участник конкурса протестировал смайлики. Сейчас ведь в порыве толерантности все платформы сделали смайлики всех цветов кожи, какие только могут быть. Так вот, фашиствующий алгоритм провалил тесты и в этой категории. Он предпочитал более светлые смайлики более темным. Позор и ужас!

Забавно, что этот конкурс только подтвердил прошлогодние претензии пользователей, которые давно заметили, что алгоритм чаще фокусируется на белых лицах, чем на лицах с другим цветом кожи.

Сначала Twitter стандартно все отрицал и заявил, что они все проверили и не нашли никаких доказательств подобному явлению.

Их слегка затроллили за такую тупую отмазку, тогда они провели еще одно исследование и, так и быть, обнаружили некоторую предвзятость в пользу белых лиц, но оооочень маленькую. Теперь после такого количества доказательств придется уже признать очевидное на полную катушку.

-5

Если учесть, что ИИ это никакой не интеллект, а тупая машина, которая делает ровно то, что прописали в ней программисты, отбояриться теперь тем, что, дескать, «мы тут не при чем, это все глупый компьютер», не удастся. Придется исправлять алгоритм, либо конторе никак не избежать преследования за расизм, сексизм, эйджизм и что там еще придумают всегда готовые покричать активисты самого разного толка.

Но не стоит сбрасывать со счетов и тот факт, что алгоритм действует на основе предпочтений пользователей. Значит, именно те, кто больше всех возмущается, лайкал именно такой контент, обучив алгоритм тому, как и что продвигать.

Ну очень нетолерантненькая история получилась. Ждем в соцсетях засилья фоточек со страшными толстыми старыми чернокожими инвалидами-трансвеститами в больших роговых очках.