Студенты были записаны для исследования, а затем стали частью набора данных, который живет вечно в сети и потенциально доступен для всех.
Если в кофейне 20 человек, то есть по крайней мере 21 камера: одна встроена в телефон каждого человека и, как правило, одна заправлена высоко в углу. То, что вы говорите, может быть подслушано и написано в Твиттере; Вы можете даже появиться на фоне селфи другого клиента или сеанса Skype. Но это не мешает даже самым частным людям заходить в кофейни. Они принимают риск, свойственный входу в общественное место.
Это понятие - «разумного» ожидания конфиденциальности - направляет исследователей, надеющихся наблюдать за объектами публично. Но сама идея того, что разумно, является сложной. Преподаватели в трех университетах - Дьюке, Стэнфорде и Университете Колорадо в Колорадо-Спрингс - столкнулись с негативной реакцией после создания баз данных, созданных с использованием видеонаблюдения за студентами, когда они шли по кафе и в студенческих городках. Вы могли бы разумно ожидать, что вас услышат в кофейне, но это не то, что внезапно стать предметом исследования, частью набора данных, который может жить вечно.
Советы по этике одобрили все три исследовательских проекта, в которых использовались данные студентов для уточнения алгоритмов машинного обучения. Исследователь из Университета Дьюка Карло Томази отказался от интервью с The Atlantic , но сказал в заявлении для Duke Chronicle, что он «искренне думал», что он следовал рекомендациям Совета по институциональному обзору. Для их исследования он и его коллеги разместили плакаты на всех входах в общественные места, сообщая людям, что их регистрируют, и предоставляя контактную информацию, если они хотят, чтобы их данные были стерты. Никто не протянул руку, сказал Томаси Хронике .
Но когда параметры его исследования изменились, Томази признает, что не сообщил IRB. Для небольших изменений это разрешено. Но Томаси получил разрешение на запись в помещении, а не на улице. И что еще важнее, он обещал разрешить доступ к базе данных только по запросу. Вместо этого он открыл его для всех, чтобы загрузить, он признался в летописи . «Нельзя винить IRB, так как я не смог проконсультироваться с ними в критические моменты. Я несу полную ответственность за свои ошибки и приношу извинения всем людям, которые были записаны, и герцогу за их последствия », - говорится в его заявлении.
Герцог в конечном итоге решил удалить набор данных, связанных с исследованием. Стэнфорд сделал то же самое с аналогичным набором данных, созданным его исследователями из покровителей, снятых в кафе в Сан-Франциско. В UCCS, где исследователи регистрировали студентов для тестирования программного обеспечения для идентификации, ведущий исследователь говорит, что команда никогда не собирала индивидуально идентифицирующую информацию. Исследователи из проектов Стэнфорда и UCCS не ответили на запросы о комментариях. В отдельных заявлениях каждый университет подтвердил, что советы по этике одобрили все исследования, и подчеркнул свою приверженность конфиденциальности студентов.
Но проблема в том, что советы по этике в университете по своей сути ограничены. Они наблюдают за некоторыми узкими аспектами того, как проводится исследование, но не всегда там, где оно заканчивается. А в век информации большинство научных исследований идет онлайн, а то, что онлайн, живет вечно. Другие исследователи, не связанные стандартами IRB, могут загрузить набор данных и использовать его по своему усмотрению, представляя всевозможные последствия для людей, не имея возможности получать информацию или предлагать согласие.
Эти последствия могут быть далеко за пределами того, что представляют исследователи. Адам Харви, эксперт по противодействию надзору в Германии, обнаружил более 100 проектов по машинному обучению по всему миру, которые ссылались на набор данных Дьюка. Он создал карту, которая отслеживала распространение набора данных по всему миру, как трекер полетов, с длинными синими линиями, простирающимися от Университета Дьюка во всех направлениях. Университеты, стартапы и учреждения по всему миру использовали набор данных , в том числе SenseTime и Megvii, китайские фирмы по надзору, связанные с репрессиями со стороны государства в отношении мусульманских меньшинств в Китае.
Каждый раз, когда к набору данных обращаются для нового проекта, намерение, область и потенциал для вредных изменений. Портативность и гибкость данных соответствуют скорости Интернета, что значительно расширяет возможности любого исследовательского проекта и расширяет риски, выходящие далеко за рамки ответственности любого университета. Так или иначе, они могут регулировать только намерения первоначальных исследователей.
Управление федерального правительства по защите человеческих исследований недвусмысленно просит членов совета не рассматривать «возможные долгосрочные последствия применения знаний, полученных в ходе исследования». Вместо этого им предлагается сосредоточиться только на предметах, непосредственно вовлеченных в исследование. И если эти субъекты - в основном анонимные люди, которые бездельничают в общественном месте, нет никаких оснований полагать, что им был нанесен явный вред.