Модератор контента для TikTok подает в суд на платформу социальных сетей после того, как она говорит, что получила психологическую травму в результате своей работы, которая, как она утверждает, требовала от нее просмотра видео с изображением насилия, теорий заговора и других тревожных изображений.
Кэнди Фрейзер, подрядчик материнской компании TikTok ByteDance из Лас-Вегаса, утверждает, что она и другие модераторы контента часто проводят по 12 часов в день за просмотром тревожного контента. Согласно жалобе, она утверждает, что TikTok и ByteDance не обеспечивают адекватную защиту и психологическую поддержку модераторам контента.
«Истец Фрейзер просматривает видеоролики о геноциде в Мьянме, массовых расстрелах, изнасиловании детей и нанесении увечий животным», — говорится в жалобе. «В результате постоянного и неослабевающего воздействия высокотоксичных и чрезвычайно тревожных изображений на рабочем месте у мисс Фрейзер развилась и страдает серьезная психологическая травма, включая тревогу, депрессию и посттравматическое стрессовое расстройство».
Предложенный коллективный иск, поданный на прошлой неделе в федеральный суд Калифорнии, вероятно, усилит проверку проблемного контента и методов модерации в TikTok. Платформа на основе коротких видео ранее не привлекала внимания по сравнению с более крупными конкурентами, такими как Facebook и YouTube , но в последние месяцы привлекла внимание критиков и законодателей после резкого роста популярности , особенно среди молодежи, во время пандемии. В сентябре компания заявила, что число ее пользователей в месяц достигло 1 миллиарда.
Представитель TikTok заявил, что компания не комментирует продолжающийся судебный процесс.
«Мы стремимся создать благоприятную рабочую среду для наших сотрудников и подрядчиков», — сказал представитель. «Наша команда по безопасности сотрудничает со сторонними фирмами в важной работе по защите платформы и сообщества TikTok, и мы продолжаем расширять спектр оздоровительных услуг, чтобы модераторы чувствовали психологическую и эмоциональную поддержку».
Фрейзер не является сотрудником TikTok или ByteDance; скорее, она работает в канадской компании Telus International, которая нанимает сотрудников по модерации контента для TikTok и других социальных сетей. Но Фрейзер утверждает в иске, что ее работа продиктована и контролируется TikTok и ByteDance. Представитель Telus, которая не фигурирует в качестве стороны в судебном процессе, заявил, что Фрейзер никогда ранее не выражала опасений по поводу ее работы, и «ее утверждения полностью несовместимы с нашей политикой и практикой».
«У нас есть надежная программа устойчивости и психического здоровья для поддержки всех членов нашей команды, а также комплексная программа льгот для доступа к услугам личного здоровья и благополучия», — сказал представитель Telus. «Члены нашей команды могут поднимать вопросы и опасения по любому аспекту своей работы через несколько внутренних каналов, и к каждому из них компания относится очень серьезно».
Facebook ( FB ) столкнулась с аналогичным иском в 2018 году от модератора контента, который сказал, что у нее развился посттравматический стресс после того, как она увидела контент с изнасилованиями, самоубийствами и насилием на работе. Среди критических замечаний, с которыми Facebook столкнулся за свои методы модерации контента, было то, что подрядчики по модерации не получали тех же преимуществ, что и корпоративные сотрудники, несмотря на то, что им поручалась такая тяжелая работа. Гигант социальных сетей в конечном итоге согласился на коллективный иск в размере 52 миллионов долларов , который включал выплаты и финансирование лечения психических заболеваний для модераторов контента, а также смену рабочего места.
Руководитель TikTok впервые дал показания на Капитолийском холме в октябре и признал необходимость усиления защиты молодых пользователей на платформе. «Мы стремимся завоевать доверие за счет более высокого уровня действий, прозрачности и подотчетности, а также скромности, чтобы учиться и совершенствоваться», — заявил вице-президент TikTok и глава отдела государственной политики Майкл Бекерман подкомитету Сената. Но иск Фрейзера может указывать на проблемы с улучшением такой защиты.
В жалобе утверждается, что проблемный контент рассматривается модераторами только после его загрузки на платформу, если пользователь сообщает об этом. Из-за большого объема контента у модераторов есть всего 25 секунд, чтобы просмотреть каждое видео и просмотреть «от трех до десяти видео одновременно», говорится в сообщении. (TikTok не сразу ответил на запрос о комментариях относительно этих утверждений.)
«Эти видео включают в себя жестокое обращение с животными, пытки, самоубийства, жестокое обращение с детьми, убийства, обезглавливание и другой графический контент», — говорится в жалобе. «Каждое видео отправляется двум модераторам контента, которые просматривают видео и определяют, следует ли видео оставить на платформе, удалить с платформы или отключить звук».
Тео Бертрам, тогдашний директор TikTok по государственной политике в Европе, на Ближнем Востоке и в Африке, сообщил британским законодателям в сентябре 2020 года, что в команде «доверия и безопасности» компании по всему миру работает 10 000 человек. Ранее в этом году TikTok также запустил автоматическую систему модерации для сканирования и удаления видео, нарушающих его политику, «после загрузки», хотя эта функция доступна только для определенных категорий контента.
Система обрабатывает «категории контента, в которых наша технология имеет наивысшую степень точности, начиная с нарушений нашей политики в отношении безопасности несовершеннолетних, наготы взрослых и сексуальных действий, жестокого и графического контента, а также незаконных действий и регулируемых товаров», — говорится в июльском сообщении в блоге от Глава службы безопасности США TikTok Эрик Хан читает. «Мы надеемся, что это обновление также повысит устойчивость нашей команды по безопасности, уменьшив количество неприятных видео, которые просматривают модераторы, и позволив им уделять больше времени контекстуальным и нюансированным областям».
TikTok говорит, что 93% видео с нарушениями, удаленных в период с апреля по июнь 2021 года, были сделаны в течение 24 часов после публикации — большинство из них не имели просмотров и были помечены его автоматической системой, а не сообщались пользователем. Отчет о соблюдении принципов сообщества опубликован в октябре. (TikTok не прокомментировал утверждение Фрейзера о том, что модераторы контента просматривают видео только после того, как о них сообщил пользователь.)
Фрейзер также утверждает, что модераторы контента должны подписывать соглашения о неразглашении, которые, согласно жалобе, «усугубляют вред», причиняемый работой. Практика требует работников подписать соглашение о неразглашении уже под огнем в индустрии высоких технологий в последнее время на фоне споров работников в Pinterest, Apple и других крупных технологических компаний. TikTok не сразу ответил на запрос о комментариях относительно его практики NDA.
С помощью иска Фрейзер добивается, чтобы TikTok возместил ущерб (в размере, который будет определен позже) себе и другим модераторам контента, а также создал «фонд медицинского мониторинга» для оплаты скрининга, диагностики и лечения психологических проблем для таких. работники, согласно жалобе.