Найти тему
айтишник наоборот

Эксплуатируемый труд, стоящий за искусственным интеллектом

Оглавление

На чем стоит Искусственный Интеллект

Поддержка организации транснациональных работников должна быть в центре борьбы за "этический ИИ".

Понимание обществом искусственного интеллекта (ИИ) во многом сформировано поп-культурой - фильмами-блокбастерами, такими как "Терминатор", и их сценариями конца света, в которых машины выходят из-под контроля и уничтожают человечество. Подобное повествование об ИИ также привлекает внимание новостных изданий: заявление инженера Google о том, что его чатбот является разумным, стало одной из самых обсуждаемых новостей, связанных с ИИ, за последние месяцы и даже достигло миллионов зрителей шоу Стивена Колберта. Но идея сверхразумных машин, обладающих собственной самостоятельностью и способностью принимать решения, не только далека от реальности - она отвлекает нас от реальных рисков для человеческих жизней, связанных с разработкой и внедрением систем ИИ. Пока общественность отвлекается на призрак несуществующих разумных машин, за предполагаемыми достижениями систем искусственного интеллекта сегодня стоит целая армия прекаризованных работников.

Многие из этих систем разрабатываются транснациональными корпорациями, расположенными в Силиконовой долине, которые консолидируют власть в таких масштабах, которые, как отмечает журналист Гидеон Льюис-Краус, вероятно, не имеют аналогов в истории человечества. Они стремятся создать автономные системы, которые в один прекрасный день смогут выполнять все задачи, которые могут делать люди, и даже больше, без необходимых зарплат, пособий и других затрат, связанных с наймом людей. Хотя утопия руководителей корпораций далека от реальности, марш-бросок к ее осуществлению привел к созданию глобального неполного класса, выполняющего то, что антрополог Мэри Л. Грей и социолог-компьютерщик Сиддхарт Сури называют призрачной работой: преуменьшенный человеческий труд, движущий "ИИ".

Технологические компании, провозгласившие себя "первыми в области ИИ", зависят от гик-работников, за которыми ведется пристальное наблюдение, таких как маркировщики данных, водители доставки и модераторы контента. Стартапы даже нанимают людей, чтобы те выдавали себя за системы ИИ, такие как чат-боты, из-за давления со стороны венчурных капиталистов, требующих внедрения так называемого ИИ в свои продукты. На самом деле, лондонская венчурная фирма MMC Ventures провела опрос 2830 стартапов в ЕС, занимающихся ИИ, и обнаружила, что 40% из них не используют ИИ в значительной степени.

Далекие от сложных, разумных машин, изображаемых в СМИ и поп-культуре, так называемые системы ИИ подпитываются миллионами низкооплачиваемых работников по всему миру, выполняющих повторяющиеся задачи в тяжелых условиях труда. И в отличие от "исследователей ИИ", получающих шестизначные зарплаты в корпорациях Кремниевой долины, эти эксплуатируемые работники часто нанимаются из бедных слоев населения и получают всего $1,46/час после уплаты налогов. Однако, несмотря на это, эксплуатация труда не занимает центрального места в дискуссии вокруг этической разработки и внедрения систем ИИ. В этой статье мы приводим примеры трудовой эксплуатации, лежащей в основе так называемых систем ИИ, и утверждаем, что поддержка усилий по организации транснациональных рабочих должна быть приоритетом в дискуссиях, касающихся этики ИИ.

Мы пишем это как люди, тесно связанные с работой, связанной с ИИ. Адриенна - бывший водитель доставки Amazon и организатор, испытавший на себе вред слежки и нереальных квот, устанавливаемых автоматизированными системами. Милагрос - исследователь, которая тесно сотрудничала с работниками, работающими с данными, особенно с аннотаторами данных в Сирии, Болгарии и Аргентине. Тимнит - исследователь, столкнувшийся с репрессиями за раскрытие и распространение информации о вреде систем искусственного интеллекта.

Отношение к работникам как к машинам

Большая часть того, что сегодня называют искусственным интеллектом, представляет собой системы, основанные на статистическом машинном обучении, а точнее, на глубоком обучении с помощью искусственных нейронных сетей - методологии, которая требует огромного количества данных для "обучения". Но около 15 лет назад, до распространения гиками, системы глубокого обучения считались всего лишь академической диковинкой, ограниченной несколькими заинтересованными исследователями.

Однако в 2009 году Цзя Денг и его коллеги выпустили набор данных ImageNet, крупнейший на тот момент набор данных маркированных изображений, состоящий из изображений, взятых из Интернета и маркированных с помощью недавно появившейся платформы Amazon Mechanical Turk. Amazon Mechanical Turk с девизом "искусственный искусственный интеллект" популяризировал феномен "работы толпы": большие объемы трудоемкой работы, разбитые на более мелкие задачи, которые могут быстро выполнить миллионы людей по всему миру. С появлением Mechanical Turk трудновыполнимые задачи вдруг стали выполнимыми; например, ручная маркировка одного миллиона изображений могла быть автоматически выполнена тысячей анонимных людей, работающих параллельно, каждый из которых маркировал только тысячу изображений. Более того, это было по цене, которую мог позволить себе даже университет: толпам платили за каждое выполненное задание, что могло составлять всего несколько центов.

"Так называемые системы искусственного интеллекта подпитываются миллионами низкооплачиваемых рабочих по всему миру, выполняющих повторяющиеся задачи в тяжелых условиях труда".

За набором данных ImageNet последовал конкурс ImageNet Large Scale Visual Recognition Challenge, в котором исследователи использовали набор данных для обучения и тестирования моделей, выполняющих различные задачи, такие как распознавание изображений: аннотирование изображения с указанием типа объекта на изображении, например, дерева или кошки. Если в то время модели, не основанные на глубоком обучении, выполняли эти задачи с наивысшей точностью, то в 2012 году архитектура, основанная на глубоком обучении, получившая неофициальное название AlexNet, показала более высокие результаты, чем все остальные модели. Это привело к тому, что модели на основе глубокого обучения стали популярными и привели нас к сегодняшнему дню, когда модели, требующие большого количества данных, маркированных низкооплачиваемыми гик-работниками по всему миру, распространяются транснациональными корпорациями. В дополнение к маркировке данных, взятых из Интернета, некоторые виды работ требуют от гик-работников предоставления самих данных, требуя от них загрузить селфи, фотографии друзей и семьи или изображения окружающих их предметов.

В отличие от 2009 года, когда основной платформой для краудфандинговой работы был Amazon's Mechanical Turk, в настоящее время наблюдается бум компаний, занимающихся маркировкой данных. Эти компании привлекают от десятков до сотен миллионов в виде венчурного финансирования, а специалисты по маркировке данных, по оценкам, зарабатывают в среднем 1,77 доллара за задание. Интерфейсы маркировки данных развивались таким образом, чтобы относиться к краудворкерам как к машинам, часто предписывая им высокоповторяющиеся задачи, отслеживая их перемещения и наказывая за отклонение с помощью автоматизированных инструментов. Сегодня крупные корпорации, претендующие на звание "первых в области ИИ", далеко не академический вызов, подпитываются этой армией низкооплачиваемых работников, таких как разнорабочие по сбору данных, модераторы контента, складские работники и водители доставки.

Модераторы контента, например, отвечают за поиск и отметку контента, считающегося неподходящим для данной платформы. Они не только являются незаменимыми работниками, без которых платформы социальных сетей были бы совершенно непригодны для использования, их работа по отметке различных типов контента также используется для обучения автоматизированных систем, направленных на отметку текстов и изображений, содержащих язык вражды, фейковые новости, насилие или другие типы контента, нарушающие политику платформ. Несмотря на важнейшую роль, которую модераторы контента играют как в обеспечении безопасности онлайн-сообществ, так и в обучении систем искусственного интеллекта, им часто платят мизерную зарплату, когда они работают на технологических гигантов, и заставляют выполнять травмирующие задачи, находясь под пристальным наблюдением.

Каждое видео с убийством, самоубийством, сексуальным насилием или жестоким обращением с детьми, которое не попадает на платформу, было просмотрено и отмечено модератором контента или автоматизированной системой, обученной на основе данных, которые, скорее всего, были предоставлены модератором контента. Сотрудники, выполняющие эти задачи, страдают от тревоги, депрессии и посттравматического стрессового расстройства из-за постоянного воздействия этого ужасного контента.

Помимо травмирующей рабочей среды с несуществующей или недостаточной поддержкой психического здоровья, за этими работниками следят и наказывают, если они отклоняются от предписанных повторяющихся задач. Например, модераторы контента Sama, нанятые компанией Meta в Кении, контролируются с помощью программного обеспечения, чтобы убедиться, что они принимают решения о насилии в видео в течение 50 секунд, независимо от длины видео или того, насколько оно тревожно. Некоторые модераторы контента опасаются, что несоблюдение этого требования может привести к увольнению после нескольких нарушений. "Благодаря тому, что скорость и эффективность ставятся превыше всего, - пишет журнал Time Magazine, - эта политика может объяснить, почему видео, содержащие язык ненависти и подстрекательство к насилию, остались на платформе Facebook в Эфиопии".

Подобно платформам социальных сетей, которые не могли бы функционировать без модераторов контента, конгломераты электронной коммерции, такие как Amazon, управляются армиями работников складов и водителей доставки. Как и модераторы контента, эти работники обеспечивают функционирование платформ и предоставляют данные для систем искусственного интеллекта, которые Amazon может однажды использовать вместо них: роботов, складирующих посылки на складах, и самоуправляемых автомобилей, доставляющих эти посылки клиентам. Тем временем эти работники должны выполнять повторяющиеся задачи под давлением постоянного наблюдения - задачи, которые порой подвергают их жизнь опасности и часто приводят к серьезным травмам опорно-двигательного аппарата.

"Интерфейсы маркировки данных развивались таким образом, чтобы относиться к краудворкерам как к машинам, часто предписывая им высокоповторяющиеся задачи, наблюдая за их передвижениями и наказывая за отклонение с помощью автоматизированных инструментов".

За сотрудниками складов Amazon следят с помощью камер и сканеров инвентаризации, а их производительность оценивается по времени, которое менеджеры определяют для выполнения каждого задания, основываясь на совокупных данных всех работающих на одном предприятии. Время, потраченное на выполнение поставленных задач, отслеживается и используется для дисциплинарного взыскания.

Как и работники склада, водители Amazon также контролируются с помощью автоматизированных систем наблюдения: приложение под названием Mentor подсчитывает баллы на основе так называемых нарушений. Нереалистичные ожидания Amazon по времени доставки заставляют многих водителей идти на рискованные меры, чтобы обеспечить доставку того количества посылок, которое им назначено на день. Например, времени, которое требуется человеку, чтобы пристегнуть и отстегнуть ремень безопасности около 90-300 раз в день, достаточно, чтобы отстать от графика на своем маршруте. Адриенн и многие ее коллеги пристегивают ремни безопасности за спиной, чтобы системы наблюдения регистрировали, что они едут с пристегнутым ремнем, не замедляя при этом движения.

В 2020 году водители Amazon в США получали травмы почти на 50% чаще, чем их коллеги из United Parcel Service. В 2021 году травмы водителей Amazon составят 18,3 на 100 водителей, что почти на 40% выше, чем в предыдущем году. Такие условия опасны не только для водителей доставки - в авариях с участием водителей Amazon погибали и получали травмы пешеходы и пассажиры автомобилей. Некоторые водители в Японии недавно уволились в знак протеста, поскольку, по их словам, программное обеспечение Amazon отправляло их по "невозможным маршрутам", что привело к "необоснованным требованиям и долгим часам работы". Однако, несмотря на эти очевидные вредные факторы, Amazon продолжает относиться к своим работникам как к машинам.

В дополнение к отслеживанию своих работников с помощью сканеров и камер, в прошлом году компания потребовала от водителей доставки в США подписать форму "биометрического согласия", дающую Amazon разрешение использовать камеры с искусственным интеллектом для наблюдения за передвижениями водителей - якобы для того, чтобы сократить случаи отвлечения от вождения или превышения скорости и обеспечить использование ремней безопасности. Работники вполне обоснованно опасаются, что распознавание лиц и другие биометрические данные могут быть использованы для совершенствования инструментов наблюдения за работниками или дальнейшего обучения искусственного интеллекта, который в один прекрасный день может их заменить. Расплывчатые формулировки в формах согласия оставляют возможность для интерпретации точной цели, и работники и раньше подозревали нежелательное использование их данных (хотя Amazon это отрицала).

Индустрия "искусственного интеллекта" держится на спинах этих низкооплачиваемых работников, которые занимают шаткие позиции, что затрудняет, в отсутствие профсоюзов, противодействие неэтичным практикам или требование улучшения условий труда из-за страха потерять работу, которую они не могут себе позволить потерять. Компании стараются нанимать людей из бедных и малообеспеченных сообществ, таких как беженцы, заключенные и другие, у которых мало вариантов трудоустройства, часто нанимая их через сторонние фирмы в качестве подрядчиков, а не штатных сотрудников. Хотя больше работодателей должны нанимать сотрудников из таких уязвимых групп, недопустимо делать это хищническим образом, без какой-либо защиты.

"Исследователи этики ИИ должны анализировать вредные системы ИИ как причины и следствия несправедливых условий труда в отрасли".

Работы по маркировке данных часто выполняются далеко от штаб-квартир транснациональных корпораций "AI first" в Кремниевой долине - от Венесуэлы, где рабочие маркируют данные для систем распознавания изображений в самодвижущихся автомобилях, до Болгарии, где сирийские беженцы заправляют системы распознавания лиц селфи, маркированными по расовым, гендерным и возрастным категориям. Эти задачи часто передаются на аутсорсинг нестабильным работникам в таких странах, как Индия, Кения, Филиппины или Мексика. Работники часто не говорят по-английски, но получают инструкции на английском языке, и им грозит увольнение или запрет на участие в краудворкинге, если они не полностью понимают правила.

Эти корпорации знают, что усиление власти рабочих замедлит их продвижение к распространению систем "искусственного интеллекта", требующих огромных объемов данных и внедряемых без должного изучения и смягчения их вреда. Разговоры о разумных машинах только отвлекают нас от привлечения их к ответственности за практику эксплуатации труда, которая лежит в основе индустрии "ИИ".

Срочный приоритет для этики ИИ

В то время как исследователи этичного ИИ, ИИ для социального блага или ИИ, ориентированного на человека, в основном сосредоточены на "очистке" данных и обеспечении прозрачности и справедливости моделей, здесь мы утверждаем, что прекращение эксплуатации труда в индустрии ИИ должно быть в центре таких инициатив. Если корпорациям не позволят эксплуатировать рабочую силу, например, из Кении в США, они не смогут так быстро распространять вредные технологии - рыночные расчеты просто не позволят им этого делать.

Таким образом, мы выступаем за финансирование исследований и общественных инициатив, направленных на выявление проблем на пересечении труда и систем ИИ. Исследователи этики ИИ должны анализировать вредные системы ИИ как причины и следствия несправедливых условий труда в отрасли. Исследователи и практики в области ИИ должны задуматься о том, что они используют краудворкеров для продвижения собственной карьеры, в то время как краудворкеры остаются в тяжелых условиях. Вместо этого сообщество этики ИИ должно работать над инициативами, которые передают власть в руки работников. В качестве примера можно привести совместное с работниками составление программ исследований на основе их потребностей, поддержку межгеографических усилий по организации труда и обеспечение того, чтобы результаты исследований были легко доступны работникам, а не ограничивались академическими публикациями. Платформа Turkopticon, созданная Лилли Ирани и М. Сикс Зильберман, "активистская система, позволяющая работникам обнародовать и оценивать свои отношения с работодателями", является отличным примером этого.

Журналисты, художники и ученые могут помочь, ясно показав связь между эксплуатацией труда и вредными продуктами ИИ в нашей повседневной жизни, способствуя солидарности и поддержке работников и других уязвимых групп работников. Журналисты и комментаторы могут показать широкой публике, почему ее должны волновать данные аннотатора в Сирии или гипернагруженного водителя доставки Amazon в США. В определенных обстоятельствах стыд действительно работает, и для корпораций общественное мнение "позор вам" иногда может быть равносильно потере доходов и поможет сдвинуть дело к ответственности.

Поддержка транснациональных организаций работников должна быть в центре борьбы за "этичный ИИ". Хотя каждое рабочее место и географический контекст имеют свои особенности, знание того, как работники в других местах обходят подобные проблемы, может послужить вдохновением для местных усилий по организации и созданию профсоюзов. Например, маркировщики данных в Аргентине могут извлечь уроки из недавних усилий по объединению в профсоюз модераторов контента в Кении или работников Amazon Mechanical Turk в США, и наоборот. Более того, профсоюзные работники в одном географическом регионе могут выступать в защиту своих более нестабильных коллег в другом, как в случае с профсоюзом работников Alphabet, в который входят как высокооплачиваемые сотрудники в Кремниевой долине, так и аутсорсинговые низкооплачиваемые подрядчики в более сельских районах.

"Такой тип солидарности между высокооплачиваемыми технологическими работниками и их более низкооплачиваемыми коллегами, которых значительно больше, - это кошмар руководителя технологического сектора".

Такая солидарность между высокооплачиваемыми техническими работниками и их низкооплачиваемыми коллегами, которых значительно больше, является кошмаром для руководителей технологических компаний. В то время как корпорации часто относятся к своим низкооплачиваемым работникам как к одноразовым, они больше опасаются потерять своих высокооплачиваемых сотрудников, которые могут быстро переметнуться на работу к конкурентам. Таким образом, высокооплачиваемые сотрудники имеют гораздо более длинный поводок для организации, объединения в профсоюзы и выражения своего недовольства культурой и политикой компании. Они могут использовать эту повышенную безопасность, чтобы выступать в защиту своих более низкооплачиваемых коллег, работающих на складах, доставляющих посылки или маркирующих данные. В результате корпорации, похоже, используют все имеющиеся в их распоряжении инструменты, чтобы изолировать эти группы друг от друга.

Эмили Каннингем и Марен Коста создали тот тип солидарности между работниками, который пугает руководителей технологических компаний. Обе женщины работали дизайнерами пользовательского опыта в штаб-квартире Amazon в Сиэтле в общей сложности 21 год. Вместе с другими работниками корпорации Amazon они стали соучредителями организации Amazon Employees for Climate Justice (AECJ). В 2019 году более 8 700 работников Amazon публично подписали свои имена под открытым письмом, адресованным Джеффу Безосу и совету директоров компании, с требованием климатического лидерства и конкретных шагов, которые компания должна предпринять, чтобы соответствовать климатической науке и защитить работников. Позже, в том же году, AECJ организовала первую в истории Amazon забастовку корпоративных работников. По данным группы, более 3 000 работников Amazon вышли по всему миру в знак солидарности с возглавляемой молодежью Глобальной климатической забастовкой.

В ответ Amazon объявила о своем климатическом обещании, обязательстве достичь нулевого уровня выбросов углекислого газа к 2040 году - на 10 лет раньше Парижского соглашения по климату. Каннингем и Коста говорят, что после климатической забастовки их подвергали дисциплинарным взысканиям и угрожали увольнением, но только после того, как AECJ организовал акции солидарности с низкооплачиваемыми работниками, их действительно уволили. Через несколько часов после того, как другой член AECJ разослал приглашение в календарь, приглашая работников корпорации послушать группу работников склада, обсуждающих тяжелые условия труда, с которыми они столкнулись в начале пандемии, Amazon уволил Косту и Каннингема. Национальный совет по трудовым отношениям признал их увольнения незаконными, и позже компания заключила с обеими женщинами мировое соглашение на нераскрытую сумму. Этот случай показывает, где кроется причина опасений руководителей: непоколебимая солидарность работников с высоким уровнем дохода, которые считают работников с низким уровнем дохода своими товарищами.

В связи с этим мы призываем исследователей и журналистов также обратить внимание на вклад работников с низким уровнем дохода в работу двигателя "искусственного интеллекта" и перестать вводить общественность в заблуждение рассказами о полностью автономных машинах с человекоподобными способностями. Эти машины создаются армиями низкооплачиваемых рабочих по всему миру. Имея четкое представление о трудовой эксплуатации, стоящей за нынешним распространением вредных систем ИИ, общественность может выступать за усиление защиты труда и реальные последствия для организаций, которые их нарушают.