Авторы Эймон Костелло и Стивен Гоу
Осторожные и согласованные модели цифрового образования заменяются авторитарными EdTech. Педагогические возможности, которые сейчас предлагает цифровое обучение, такие как разработка стратегий оценки в рамках и вокруг Gen AI, маскируют не только альтернативные издержки участия в цифровом перманентном кризисе, но и одновременное утверждение авторитета EdTech через его все более насущные требования к нашему вниманию. Образовательные технологии стали в своей онтологической инфраструктуре все более централизованными, менее открытыми и более мощными. Благодаря GenAI они стали менее правдивыми, менее надежными и более эпистемологически нигилистичными. Авторитарные EdTech лишают пространства для значимого активного участия, предлагая вместо этого перформативные и несущественные варианты выбора учащимся и учителям. Например, составляющие их технологии внедряются не в результате тщательных закупок, исследований и консультаций, а в результате быстро проводимых поисков сверху вниз, направленных на поиск самых дешевых и легальных способов для образовательных учреждений работать с новыми продуктами. Хотя такие продукты анонсируются на рынке как средство, которое перевернет традиционные формы оценки образования и конфигурации труда, рынки EdTech на самом деле не существуют. Скорее, в условиях технофеодализма каждый «рынок» или «магазин приложений» контролируется одним сильным игроком из числа крупных технологических компаний (Varoufakis, 2023). Рынки являются лишь невольным признаком мошеннической экономики. Прежние худшие модели EdTech в стиле Форда — «любой цвет, который вам нравится, главное, чтобы это была доска» (Dron, 2006) — теперь заменены посткапиталистическим, технофеодальным и авторитарным EdTech, который ведет непрекращающуюся войну против выбора, согласия, сообщества и правды. Авторитарные EdTech рассматриваются здесь на примерах таких явлений, как отношение Трампа к искусственному интеллекту в образовании (AIED), более широкие реакции AIED и результирующие особенности технологий без согласия, которые процветают благодаря умиротворению и новой цифровой монументальной архитектуре высшего образования.
В первый день своего пребывания в должности президент США Дональд Трамп в помпезной и авторитарной демонстрации власти отменил 78 указов, в том числе указ, отменяющий указ Байдена № 14110 о «безопасном, надежном и заслуживающем доверия развитии и использовании искусственного интеллекта» (Cassidy et al., 2025). Этот указ требовал от разработчиков систем ИИ проводить испытания на безопасность и делиться их результатами с правительством США перед выпуском таких систем в открытый доступ. Кроме того, он предписывал американским агентствам установить стандарты для таких испытаний. В последующие месяцы правительство приступило к чистке органов по безопасности ИИ и кибербезопасности (Geller, 2025), отмене финансирования исследований в области дезинформации и недостоверной информации (Owens, 2025) и закрытию Бюро по финансовой защите потребителей (Rugaber, 2025). 15 апреля 2025 года производитель ChatGPT, компания OpenAI, последовала его примеру, объявив, что прекратит тестирование и классификацию конкретных социальных рисков, которые могут представлять ее продукты, перед их выпуском. К этим рискам относилось, в частности, возможность использования ИИ для злонамеренного воздействия (например, для манипулирования выборами). Вместо этого такие риски будут охватываться Условиями предоставления услуг ChatGPT, которые будут предписывать пользователям не использовать программное обеспечение для таких целей. Вскоре после этого Трамп подписал указ об интеграции ИИ в систему образования K12 и подготовку учителей. Всеми этими мерами администрация продемонстрировала свой живой интерес к созданию ИИ, который был бы неограниченным, неконтролируемым и бесспорно связанным с государством и его лидером. Использование ИИ посредством указов лидера таким образом, как «вульгарная демонстрация силы» (Pantera, 1992), направлено на социальных агентов, которых не просто создадут, но и соблазнят, «чтобы они присоединились и придерживались популистской риторики Трампа» (Zembylas, 2020). Все это служит для подкрепления, обеспечения и реализации ключевых элементов авторитарных образовательных технологий.
Короче говоря, авторитарные образовательные технологии вращаются вокруг угнетающего ограничения выбора.
Радикальный сдвиг ответственности со стороны правительства Трампа от регулирования и надзора за ИИ на основе научных исследований к юридическим формулировкам условий использования продуктов стоит рассматривать в более широком контексте политической экономики EdTech. Судебный иск, поданный одним из родителей в 2019 году, показал, что 50 % детей в возрасте от 6 до 18 лет в датских школах в течение десяти лет делились личными данными с Google без их согласия или согласия их родителей (The Privacy Dad, 2024). Все больше исследователей показывают, как потоки образовательных данных становятся настолько сложными (Caines and Silverman, 2021; Hartong et al., 2024), непрозрачными и повсеместными, что согласие, когда оно существует, часто становится орвеллианским обращением вспять результата любого свободного и обдуманного выбора. Отсутствие согласия, таким образом, является ключевой чертой авторитарных EdTech. Оно существует в противовес концепции технологий, основанных на согласии. Технологии, основанные на согласии, опираются на медицинские и сексуальные модели согласия, а также на феминистскую теорию точки зрения, чтобы утверждать, что «утвердительное согласие» должно быть «добровольным, осознанным, обратимым, конкретным и не обременительным» (Im et al., 2021). В согласованных EdTech всегда должны быть на переднем плане и учитываться динамика власти и различия в согласии.
Столкнувшись с различиями в власти BigTech, участники, сознательно или нет, могут активировать льстивые реакции, например, на роль GenAI в образовании. Такие льстивые, благоприятные реакции мы называем «умиротворением ИИ». Примеры можно найти в руководствах по ИИ для учителей с такими названиями, как «8 подходов, помогающих учителям развить дружественное отношение к ИИ», которые пропагандируют «открытость к изменениям», что включает в себя «принятие того, что ИИ изменит некоторые аспекты образования, и готовность адаптироваться, а не сопротивляться» (Kharbach, 2025). Ответственность в таких руководствах, как показывает анализ политики документов, изданных такими организациями, как ЮНЕСКО (Mochizuki et al., 2025), заключается не в том, чтобы привлекать правительства или компании к ответственности демократическим, обсуждаемым или партисипативным образом, а в том, чтобы обеспечить этичное и ответственное использование инструментов учителями.
Критики GenAI утверждают, что этичное использование неэтичных инструментов может быть невозможно, что предлагается отсутствие выбора (McQuillan, 2025). Рынки EdTech предлагают такие платформы, как VLE/LME, от ограниченного числа поставщиков из-за эффекта пребывания в должности, но ситуация с GenAI гораздо хуже. Только самые мощные компании на планете могут позволить себе материалы для создания технологии Large Language Model, такие как чипы, вычислительные мощности, облачная инфраструктура и юридические команды для борьбы с владельцами данных, взятых для обучения моделей. Действительно, на данный момент не существует никаких законных или этических способов создания технологий GenAI в том виде, в каком они понимаются в настоящее время. Тем не менее, такие «машины всего» обещают нам неограниченный выбор, бесконечные синтетические возможности. Они разрушают мир таким образом, что все становится «опциональным» (McDonald and Costa, 2024), и создают экстремальную персонализацию, из которой мы можем извлекать неисчерпаемые ресурсы.
Двумя выдающимися архитектурными формами авторитарных EdTech являются враждебная архитектура и монументальная архитектура. Бенджамин (2019) иллюстрирует враждебную архитектуру с помощью жестоко спроектированных парковых скамеек, которые исключают бездомных из общественных мест с помощью силы окружающей среды. Авторитаризм требует враждебных архитектур для создания, криминализации и преследования «других». Трамп прекратил финансирование исследований в области образования и связанные с ними трудовые договоры, используя грубые списки ключевых слов, относящихся к «другим»: «маргинализированные», «гендер», «социокультурный», «системный», «активизм», «разнообразие», «женщины», «коренные народы» и «социально-экономический» (Smith et al., 2025). EdTech предоставляет готовые враждебные механизмы для отчуждения, когда противопоставляет студентов друг другу и студентов учителям с помощью конфронтационных педагогических методов. Плагиат и паника из-за мошенничества в GenAI — классические техники отчуждения, которые способствуют педагогическому противостоянию, создавая страх, неопределенность и недоверие. Точно так же учащиеся из группы риска, которых можно выявить и защитить с помощью аналитики учебной среды, отчуждаются как «рискованные учащиеся» и т. д. (Jarke and Macgilchrist, 2021).
Монументальная архитектура включает в себя крупномасштабные сооружения, символизирующие индивидуальную, культурную или политическую власть, например, пирамиды Египта. В цифровом кампусе масштаб передает монументальность как ничто другое. Масштаб демонстрирует сосредоточенную власть, собранные данные, совокупное богатство. Возможность мгновенно попасть в любую аудиторию по любой причине всегда существует, хотя и редко используется. Однако исключения включают бойкот оценивания в Великобритании, когда университеты могли нанимать внешний персонал для пресечения забастовки, поскольку эссе сдавались через централизованные системы управления обучением. Или американский профессор, который был уволен и в письме об увольнении был проинформирован о том, что его университет тайно записывал и просматривал его занятия с помощью системы записи лекций Panopto (Billman, 2024).
Педагоги пережили цифровой блицкриг с одной волной быстрой цифровизации во время пандемии, за которой последовало тестирование GenAI в реальном времени (West, 2023), но сопротивление никогда не бывает бесполезным. Большую смелость можно почерпнуть из того, как британские учреждения успешно сотрудничали, угрожая отключить Turnitin, чтобы заставить компанию отказаться от введения новой функции «обнаружения ИИ», включенной по умолчанию. Студенты кооптировали и заняли монументальные архитектурные сооружения, например, переименовав престижное здание мецената в Колумбийском университете в «Зал Хинда», чтобы переименовать университеты в честь жертв геноцида. Авторитаризм никогда не является неизбежным. Педагоги могут создать пространство для всего: для плюрализма, для разногласий, для всего спектра творческих и критических реакций на жизнь, которые мы ожидаем при осуществлении свобод, которые чтят и освобождают других, а не подавляют их, и через сострадание, из которого проистекает наша единственная истинная власть.