Найти тему
Веб-интегратор КРИТ

Искусственный интеллект Google оказался расистом и сексистом

Оглавление

Хм, хотя это довольно человеческие качества...

Credit: Mashable/Bob Al-Greene
Credit: Mashable/Bob Al-Greene

Хотя разумный ИИ - это совершенно причудливая концепция, она (пока) не стала реальностью. Но расистский и сексистский ИИ? Это очень похоже на реальность.

В недавнем интервью Wired инженер и христианский священник-мистик Блейк Лемуан рассказал, почему, по его мнению, большая языковая модель Google под названием LaMDA стала разумной и наделенной душой. Хотя это утверждение было опровергнуто многими в сообществе искусственного интеллекта и привело к тому, что Google отправил Лемуана в оплачиваемый административный отпуск, Лемуан также объяснил, как он начал работать над LaMDA.

Его путешествие с ИИ началось с гораздо более реальной проблемы: изучения модели на предмет вредных предубеждений в отношении сексуальной ориентации, пола, идентичности, этнической принадлежности и религии.

"Я не верю, что существует такая вещь, как беспристрастная система", - сказал Лемуан Wired. "Вопрос заключался в том, были ли у [LaMDA] какие-либо вредные предубеждения, которые мы хотели устранить. Короткий ответ - да, я нашел много."

Лемуан также объяснил, что, насколько он мог судить, команда Google проделала хорошую работу по исправлению этих предвзятых "ошибок". Когда его спросили, проявлял ли ЛаМДА расистские или сексистские наклонности, Лемуан осторожно ответил, заявив, что он "не стал бы использовать этот термин". Вместо этого он утверждает, что "реальный вопрос заключается в том, будут ли стереотипы, которые он использует, одобрены людьми, о которых говорит [ЛаМДА]".

Нерешительность Лемуана назвать "ошибки" LaMDA откровенными расистскими или сексистскими подчеркивает продолжающуюся борьбу в сообществе искусственного интеллекта, где многие высказались о вредных стереотипах, которые часто увековечивают системы искусственного интеллекта. Но когда те, кто высказывается об этих проблемах, в основном чернокожие женщины — и этих женщин впоследствии увольняют из таких компаний, как Google, — многие считают, что на таких технологах, как Лемуан, лежит обязанность продолжать привлекать внимание к текущим проблемам предвзятости ИИ, а не отвлекать внимание исследователей и общественности. с претензиями на разумность ИИ.

”Я не хочу говорить о разумных роботах, потому что на всех концах спектра есть люди, причиняющие вред другим людям, и именно на этом я хотел бы сосредоточить разговор", - сказал Wired бывший соруководитель команды Google по этическому ИИ Тимнит Гебру.

Искусственный интеллект сталкивается с долгой историей вредных стереотипов

В 2015 году Джеки Алсине написала в твиттере о том, что Google Photos добавила 80 фотографий чернокожего мужчины в альбом под названием "гориллы". Google Photos научился делать это с помощью нейронной сети, которая анализировала огромные массивы данных, чтобы классифицировать объекты, такие как люди и гориллы, — очевидно, неправильно.

Инженеры Google несли ответственность за то, чтобы данные, используемые для обучения фотосистемы искусственного интеллекта, были правильными и разнообразными. И когда это не удалось, они были обязаны исправить проблему. По данным New York Times, ответ Google состоял в том, чтобы исключить "гориллу" из категории фотографий, а не переучивать свою нейронную сеть.

Такие компании, как Microsoft, IBM и Amazon, также сталкиваются с теми же проблемами предвзятого ИИ. В каждой из этих компаний искусственный интеллект, используемый для управления технологией распознавания лиц, сталкивается со значительно более высокой частотой ошибок при определении пола женщин с более темными тонами кожи, чем при сравнении с идентификацией пола женщин со светлой кожей, как сообщает Times.

В 2020 году Гебру опубликовал статью с шестью другими исследователями, четверо из которых также работали в Google, в которой критиковал большие языковые модели, такие как LaMDA, и их склонность повторять слова на основе наборов данных, из которых они извлекают уроки. Если эти наборы данных содержат предвзятые формулировки и/ или расистские или сексистские стереотипы, то ИИ, подобные LaMDA, будут повторять эти предубеждения при создании языка. Гебру также раскритиковал обучающие языковые модели со все более большими наборами данных, позволяющие ИИ учиться еще лучше имитировать язык и убеждать аудиторию в прогрессе и разумности, как это сделал Лемуан.

После спора по поводу этой статьи Гебру говорит, что Google уволила ее в декабре 2020 года (компания утверждает, что она уволилась). Несколько месяцев спустя Google также уволила доктора Маргарет Митчелл, основателя команды ethical AI, соавтора статьи и защитника Gebru.

Несмотря на предполагаемую приверженность "ответственному ИИ", Google по-прежнему сталкивается с этическими проблемами ИИ, не оставляя времени для разумных заявлений

После драмы и признанного удара по своей репутации Google пообещала удвоить свой ответственный исследовательский персонал в области искусственного интеллекта до 200 человек. И, согласно Recode, генеральный директор Сундар Пичаи пообещал свою поддержку в финансировании более этичных проектов в области искусственного интеллекта. И все же небольшая группа людей, все еще входящих в команду Google по этическому ИИ, считает, что компания может больше не прислушиваться к идеям группы.

После ухода Гебру и Митчелла в 2021 году год спустя ушли еще два выдающихся члена команды по этичному ИИ. Алекс Ханна и Дилан Бейкер уволились из Google, чтобы работать в исследовательском институте Gebru, DAIR, или Distributed Artificial Intelligence Research. И без того небольшая команда стала еще меньше, и, возможно, это указывает на то, почему Лемуана, который не входит в команду по этическому ИИ, попросили вмешаться и в первую очередь исследовать предубеждения ЛаМDA.

Поскольку все больше и больше социальных функций в своем развитии обращаются к системам искусственного интеллекта, как никогда важно продолжать изучать, как основы искусственного интеллекта влияют на его функции. В обществе, которое и без того часто является расистским и сексистским, мы не можем позволить себе, чтобы наши полицейские системы, транспортные средства, услуги переводчиков и многое другое полагались на технологии, в основу которых заложены расизм и сексизм. И, как указывает Гебру, когда (преимущественно) белые люди в сфере технологий предпочитают сосредоточиться на таких проблемах, как разумность ИИ, а не на этих существующих предубеждениях — особенно когда это было их первоначальной целью, например, участие Лемуана в LaMDA — предубеждения будут продолжать распространяться, скрытые под шумом разумности роботов.

“Существует довольно большой разрыв между нынешним описанием ИИ и тем, что он может сделать на самом деле”, - сказала Wired Джада Пистилли, специалист по этике в Hugging Face. “Это повествование вызывает страх, изумление и волнение одновременно, но в основном оно основано на лжи, чтобы продать продукты и воспользоваться шумихой”.