Найти в Дзене

Как большие технологические компании и искусственный интеллект подвергают риску пострадавших от торговли людьми

Оглавление

Где-то вдали от лагерей бездомных в Сиэтле в сентябре 2022 года Amazon провела первый саммит «Технологии против торговли людьми». Это было элитное мероприятие. Присутствовали руководители проектов и топ-менеджеры Amazon, Google, Microsoft и Meta (деятельность компании Meta Platforms Inc. по реализации продуктов-соцсетей Facebook и Instagram на территории РФ запрещена по основаниям осуществления экстремистской деятельности), а также министры труда со всего мира. Среди участников дискуссии были руководители правительств, правоохранительных органов, технологических департаментов и директора НКО. Только двое пострадавших от торговли людьми попали в список выступающих.

Этот саммит был прежде всего демонстрацией силы. Большинство представленных инструментов были созданы для правоохранительных органов, и очевидно, что безопасность ставилась намного выше конфиденциальности. И только сами пострадавшие упомянули об опасности такого бессистемного сбора данных, на что остальные участники лишь усмехнулись. По мнению последних, важнее остановить торговцев людьми любыми возможными способами.

ИИ: Инструмент или бомба замедленного действия

Как скажет люб_ая переживш_ая торговлю людьми, конфиденциальность – это безопасность. Их невозможно разделить, особенно когда пострадавш_ую преследуют преступники, от которых он_а смог_ла сбежать. Однако с этим утверждением расходится основной принцип технологических гигантов: собирать как можно больше данных, манипулировать и торговать ими, находя способ извлечь из этого прибыль.

Рассмотрим один из представленных инструментов: Amazon Ring. По сути, это дверные звонки с камерами, которые позволяют жильцам видеть, кто стоит за дверью и кто заходил в их отсутствие. Они кажутся достаточно безобидными. Тем не менее, после того, как жильцы по всей территории США установили их в свои дома, они по сути стали «крупнейшей гражданской сетью наблюдения, которую когда-либо видела страна». По состоянию на май 2021 года, Amazon заключила партнерские отношения «примерно с каждым десятым полицейским управлением США», предоставив им «возможность доступа к записям с миллионов частных камер видеонаблюдения».

Борьба с торговлей людьми является одним из оправданий Amazon для подобных разработок. Ведущий саммита высоко оценил партнерство корпорации с американским Национальным центром помощи пропавшим без вести и эксплуатируемым детям (National Center for Missing & Exploited Children, NCMEC), восхваляя то, как легко стало правоохранительным органам получить видеозапись без ордера из любого района, где подозревается похищение. Безопасность превыше всего, конфиденциальность – на втором месте. При этом без внимания осталось то, насколько легко можно злоупотребить таким видом доступа. Также никто не подвергнул сомнению предположение о том, что полиция всегда является решением, а не проблемой. И это несмотря на данные, свидетельствующие о том, что сотрудники правоохранительных органов на 40% чаще осуществляют домашнее насилие, и что многие из них сами были осуждены за торговлю людьми.

Ранее ИИ и машинное обучение также обозначались как потенциальные инструменты для поимки подозреваемых в торговле людьми. То, что эти системы способны выполнять такие задачи, воспринималось как данность: это был лишь вопрос времени и достаточного количества данных. Тем не менее, информация о торговле людьми является как ограниченной, так и часто некорректной. Плохие данные означают плохое обучение ИИ-моделей, и хотя данная тема не была сочтена достойной обсуждения на саммите, это может означать только одно из двух. Либо вы получите систему, которая в лучшем случае бесполезна, а в худшем – опасна, потому что была обучена на неточных данных. Либо вы используете проблему с данными как предлог для сбора еще большего количества информации. Стремление к «безопасности» снова возьмет верх над неприкосновенностью частной жизни.

Лже-мессия больших данных

Технологическая индустрия очарована большими наборами данных. При этом во многих случаях их количество становится важнее качества, и компании-гиганты систематически преуменьшают опасности этой тенденции. Вот почему Google вытеснила Тимнит Гебру (Timnit Gebru), известную экспертку по ИИ, после того, как она раскритиковала огромный объем данных компании как создающий – среди прочих проблем – опасность для расистских и сексистских предубеждений.

Точно так же никто в этой сфере не хочет признавать, что обучение ИИ информации о торговле людьми сопряжено с риском сбора данных о выживших, которые впоследствии могут быть слиты, неверно истолкованы или проданы с целью получения прибыли. Наиболее наглядным примером является продажа компанией LexisNexis информации о мигрантах Иммиграционной и таможенной службе США. На саммите Amazon од_на из участни_ц дискуссии, переживш_ая эксплуатацию, отметила, что данные, переданные правоохранительным органам, сделали членов ее/его собственной семьи более уязвимыми для торговцев людьми. В ответ директор_ка одной из крупнейших в мире неправительственных антитраффикинговых организаций ответил_а: «Дерьмо случается».

Несмотря на то, что в теории технологии действительно могут помочь пострадавшим, было очевидно, что слишком мало переживших эксплуатацию участвовали в разработке продуктов, представленных на саммите Amazon. И в резульате они стали не тем, что нужно пострадавшим от торговли людьми, а тем, что хотели создать технологические гиганты в качестве средства оправдания нарушения прав на конфиденциальность.

Волк в овечьей шкуре

Не стоит ожидать, что компании обеспечат безопасность пострадавших от торговли людьми, учитывая, что они получают прибыль от продажи пользовательских данных – особенно в рамках сотрудничества с правоохранительными органами. При этом есть и другие веские причины, по которым большинство переживших торговлю людьми не доверяют полиции. Помимо опасений об иммиграционном статусе, некоторые попадали в эксплуатацию, осуществляемую самими сотрудниками правоохранительных органов. В других случаях торговцы людьми находились под защитой полиции. С этой точки зрения, новые технологические инструменты можно сравнить с ситуацией, когда кто-то дает змее второй набор клыков и одновременно говорит вам доверить ей свою жизнь.

По своей сути торговля людьми – это эксплуатация наиболее уязвимых групп населения. Создание инструментов, которые дают полиции больше полномочий, не помогает этим людям, они не помогают найти им жилье, лекарства или работу. Почти в каждой стране в рамках государственных инициатив по борьбе с торговлей людьми правительство выделяет больше всего денег и полномочий правоохранительным органам, а не организациям, обеспечивающим долгосрочные потребности и реабилитацию выживших.

Пройти через физическое насилие эксплуататоров – это только первый шаг к тому, чтобы не умереть. Почти кажд_ая переживш_ая торговлю людьми живет с хроническим заболеванием или инвалидностью. Если бы технологическая индустрия действительно заботилась об этих людях, она бы создавала инструменты, облегчающие жизнь гражданам с ограниченными возможностями или помогающие им легче коммуницировать. Она разработала бы приложения, которые защитили бы людей от их траффикеров, облегчив возможность анонимного обращения в полицию.

Если мы хотим, чтобы технологические компании работали в общественных интересах, нам нужно убедить их нанимать переживших эксплуатацию и прислушиваться к ним. Более того, важно, чтобы их было много, ведь выжившие не являются монолитом – их опыт, точки зрения и области знаний могут сильно различаться, – и их мнения во всем их разнообразии должны быть услышаны. Программисты должны научить их кодировать и анализировать данные, чтобы они могли сами создавать надежные, точные и защищенные наборы данных. Они достойны иметь право налагать вето на опасные идеи и выбирать направление, в котором будет развиваться вся работа по борьбе с торговлей людьми.

Ведь если саммит «Технологии против торговли людьми» отражает развитие этого направления, очевидно, что технические лидеры не понимают потребностей выживших или проблем их безопасности.

Они нуждаются не в спасении, а в том, чтобы их выслушали.