Низкооплачиваемые работники, потребляющие худшие ужасы интернета.
Крис Грей не спит в постели и думает о ребенке. Был ли он мертв? Он думал так в то время, все еще может представить его на земле, ботинок взрослого, прижатый к его крошечной груди. Но, может быть, он ошибался. Если аудитор Криса придет к выводу, что ребенок не был мертв, то ошибка пойдет вразрез с его оценкой качества, и он на шаг приблизится к увольнению. Поэтому он лежит без сна до поздней ночи, снова и снова видя эту картинку, пытаясь сформулировать аргумент, чтобы сохранить свою работу.
Это одна из историй, которыми Крис делится со мной, пытаясь объяснить влияние работы модератором контента в Facebook на его психическое здоровье. Сейчас он судится с компанией в ирландских судах за психологическую травму.
Давайте вернемся на шаг назад: когда вы в последний раз просматривали свои социальные сети? Наверное, не так давно. Может быть, он открыт прямо сейчас на другой вкладке, даже когда вы читаете это. Но как часто вы думаете о людях, чья работа состоит в том, чтобы ваша лента была заполнена фотографиями забавных кошек и интересными статьями по психологии, а не о невыразимо кошмарных ужасах, которые скрываются в самых темных уголках Интернета? ‘Модераторы контента,’ говорит доктор Дженнифер Беккет, преподаватель средств массовой информации и коммуникаций Мельбурнского университета, - это современные пожиратели грехов в Интернете. Их работа состоит в том, чтобы впитать в себя худшее из нас, чтобы нам не пришлось иметь с этим дело.’
Тысячи модераторов проводят свои рабочие дни, фильтруя массу помеченного контента, включая сексуальные нападения, самоубийства, порнографию из местии убийства. Возможно, неудивительно, что многие из них заболевают. Доктор Беккет считает, что у большинства модераторов будет развиваться та или иная формапосттравматического стрессового расстройства (ПТСР) и что адекватная поддержка не оказывается.
Конечно, Крис считает, что именно его работа в качестве модератора привела к его посттравматическому расстройству, хотя ему потребовалось некоторое время, чтобы принять это. "Я взрослый человек", - говорит он мне. - Я объездил весь мир. Мне никогда не приходило в голову, что подобные вещи могут быть травмирующими". Только после того, как он ушел с работы, и когда его симптомы стали подавляющими – постоянное чувство, что он на грани, плачет, впадает в яростные споры, – он, наконец, обратился за помощью, в которой нуждался.
Радикализация
Для Криса одной из самых сложных частей работы были не тревожные сообщения, которые он удалял, а скорее сообщения, которые, по его мнению, были расистскими или предназначались для разжигания ненависти, но которые технически не нарушали правила платформы.
Эту дилемму я поднимаю вместе с доктором Дженнифер Беккет, которая указывает, что последствия еще хуже для модераторов, которые сами принадлежат к меньшинству, на которое нападают на сайте. ‘Вы можете видеть, что кто-то разжигает ненависть или ведет себя расистски", - объясняет она. "Но эта платформа говорит, что нет, это не так. Затем вы, как член этой группы меньшинств, вынуждены оставить это. И это только усиливает бесчеловечное послание. Представьте, что вы видите всю эту травму, все эти плохие вещи, это постоянная ежедневная рутина. И теперь вы вынуждены оставлять вещи, которые наносят ущерб таким людям, как вы. Количество когнитивного диссонанса, которое требуется для этой роли, для меня ошеломляет".
А как насчет обратной стороны? Может ли сам акт рассмотрения такого радикального контента привести к тому, что сами модераторы станут радикализированными? По словам доктора Беккета, есть доказательства того, что это происходит. Модерация контента-это в основном низкооплачиваемая работа в экономике гигантов. Люди, делающие это, часто уже находятся на низком умственном уровне: они чувствуют себя бесправными, измученными и не имеют свободы воли в своей собственной жизни. Короче говоря, они являются идеальной когортой для радикализации.
Лолкаты
Очевидно, что компании социальных сетей должны сделать гораздо больше для решения этой проблемы, которая, по мнению экспертов, только усугубляется с увеличением числа модераторов, обрабатывающих все большее количество вредоносного контента.
Райан Бродерик, журналист, исследующий веб-культуру, недвусмыслен в своей оценке: если компания социальных сетей не может адекватно защитить своих пользователей и сотрудников, то она не заслуживает существования. Он проводит аналогию с рестораном. "Если вы управляете рестораном и не можете сказать людям, что от еды их не стошнит, у вас не может быть этого ресторана!" То же самое относится и к другим предприятиям. ‘Добро пожаловать в торговый центр", - шутит он. "Некоторые магазины горят. Мы не можем сказать вам, какие именно, пока вы не окажетесь внутри. Удачи тебе!" Такому торговому центру, очевидно, не разрешили бы работать, и это правильно.
Это юмористический пример, но в нем есть серьезный момент: мы привыкли думать, что крупные компании социальных сетей обязательно существуют, как будто это непреложный закон физики. Возможно, пришло время переосмыслить это. Когда вы в следующий раз получите милую фотографию кошки, подумайте о современных пожирателях грехов, которые работают над тем, чтобы обезопасить всех нас, но какой ценой?