Небольшая армия перегруженных работой модераторов контента - это последняя линия обороны общества от потока развратного и ужасного контента, загружаемого в социальные сети. Хотя модераторы помогают нам, обычным пользователям, избежать худшего из худшего, постоянное воздействие самых мрачных побуждений человечества может разрушить их психическое здоровье. Сейчас два бывших модератора TikTok утверждают, что быстро растущий гигант социальных сетей не уделяет должного внимания лечению психического здоровья модераторов, которые пытаются справиться с натиском цифровых кошмаров.
Я видел, как стреляют в людей, а другое видео с избиением ребенка заставило меня плакать два часа подряд
В иске, поданном в четверг, утверждается, что TikTok и его материнская компания ByteDance нарушили трудовое законодательство Калифорнии, не обеспечив надлежащую защиту модераторов от эмоциональных травм, вызванных просмотром изображений. Модераторы, как утверждается в иске, выступают в качестве "привратников между нефильтрованным, отвратительным и оскорбительным контентом, загружаемым в приложение, и сотнями миллионов людей, которые пользуются приложением каждый день". В иске TikTok обвиняется в халатности, небрежном осуществлении сохраненного контроля и нарушении закона Калифорнии о недобросовестной конкуренции.
Уже ни для кого не секрет, что модераторам контента приходится взаимодействовать с ужасными материалами, но в иске утверждается, что модерация TikTok на самом деле хуже, чем на других платформах. В то время как другие компании применяют некоторые меры по снижению вреда, рекомендованные отраслевыми группами, такие как использование технологии фильтрации для искажения изображений или обязательное консультирование модераторов, TikTok этого не делает, говорится в иске. "Это беспрецедентное воздействие и безразличие к соблюдению стандартов осторожности привело к тому, что истцы [модераторы] подверглись воздействию тысяч графических и неприемлемых видео, включая графическое насилие, сексуальное насилие и детскую порнографию", - утверждается в иске.
Бывшие модераторы TikTok Эшли Велез и Рис Янг утверждают, что они не получали надлежащего психиатрического лечения, что в свою очередь привело к небезопасной рабочей обстановке. Оба модератора утверждают, что они были подвержены воздействию списка самого ужасного дерьма в Интернете: Видео с детской порнографией, изнасилованиями, скотоложством, убийствами, обезглавливаниями и самоубийствами пересекали их столы.
Янг сообщил, что стал свидетелем того, как член картеля на камеру делал ужасные вещи. Велес рассказала NPR, что изображения и видео с участием несовершеннолетних детей составляют подавляющее большинство тревожного контента, с которым она сталкивалась.
"Кто-то должен страдать и видеть эти материалы, чтобы никто другой не страдал", - сказала Велес в интервью NPR.
Согласно иску, модераторам приказано просматривать видео не дольше 25 секунд и с точностью более 80% судить о том, нарушает ли данное видео правила TikTok или нет. По словам истцов, в течение этих 25 секунд модераторы должны продумать и рассмотреть 100 возможных тегов, которые потенциально могут быть применены для маркировки проблемного контента. Модераторы работают по 12 часов в смену с часовым перерывом на обед и двумя пятнадцатиминутными перерывами, говорится в иске.
"Проверяя посты в социальных сетях на наличие неприемлемого контента, модераторы контента являются нашими передовыми солдатами в войне против разврата: войне, в победе в которой мы все заинтересованы", - сказал в своем заявлении Стивен Уильямс, один из адвокатов, представляющих интересы модераторов TikTok. "Психологические травмы, когнитивные и социальные расстройства, с которыми сталкиваются эти работники, очень серьезны. Но их игнорируют, и проблемы будут только усугубляться - как для компании, так и для этих людей".
В дополнение к этой горе цифрового террора, в иске утверждается, что модераторы также регулярно подвергаются воздействию потоков теорий заговора и дезинформации, особенно вокруг Covid-19, что, по мнению их адвокатов, также вызывает травматические реакции.
Модераторы утверждают, как и многие другие модераторы конкурирующих технологических фирм, что от них потребовали подписать соглашение о неразглашении, запрещающее им обсуждать изображения, которые они видели. После целого дня работы в самых темных уголках человечества работники вынуждены хоронить эти истории, не имея возможности поговорить о них с друзьями или даже с семьей.
Исследователи из Техасского университета и Университета Святой Марии выпустили в прошлом году работу, в которой привели хронику научной литературы о модераторах контента и нашли множество доказательств того, что повторное воздействие вредного контента приводит к посттравматическому стрессовому расстройству и другим психологическим последствиям.
Проблемы психического здоровья, с которыми сталкиваются модераторы контента в технологической отрасли, в последние годы привлекли внимание общественности благодаря многочисленным разоблачительным отчетам и другим судебным искам. Многочисленные СМИ задокументировали зачастую шокирующие условия работы модераторов в Facebook и Youtube, хотя о модераторах TikTok было написано сравнительно мало.