За последние десять–пятнадцать лет публичное пространство незаметно, но радикально изменилось и стало алгоритмическим. Платформы собирают и пересчитывают каждое движение пользователя, превращая коммуникацию в управляемый набор метрик, а конфликты — в удобный сценарий роста видимости контента и вовлеченности. На этом фоне разговоры о потере агентности уже не выглядят философской абстракцией и становятся попыткой вернуть себе право решать, что и как мы потребляем, кому отвечаем и какие отношения строим в Сети — в том числе с искусственным интеллектом, который из молотка для забивания гвоздей превращается в когнитивный экзоскелет. Алгоритмическая публичность как новая норма Мы живем в мире, где большинство наших публичных жестов проходят через платформенные экосистемы, и каждая из них организована вокруг собственных алгоритмов: они решают, какие посты мы увидим, кого нам предложат добавить в друзья и чей ролик окажется в наших рекомендациях. При этом сами алгоритмы остаются закрытыми — их конкретное устройство объявлено коммерческой тайной, а значит, исследователи, пользователи и бренды работают с ними не напрямую, а через многочисленных посредников. Из этого вырастает особый тип публичного пространства, который можно назвать алгоритмической публичностью: это не просто сумма аккаунтов и постов, а среда, где видимость и невидимость, включенность и исключенность распределяются автоматически, на основании логики софта и бизнес-интересов платформ, а не только чьей-то воли или харизмы. Парадокс здесь в том, что мы почти ничего не знаем о внутренней кухне этих алгоритмов, но вынуждены постоянно иметь дело с их результатами — с тем, как они отбирают и усиливают одни типы поведения, обесценивая другие. Современные исследования цифровой культуры, не имея доступа к исходному коду, работают через демистификацию бытовых представлений об алгоритмах, которые, может, и не объясняют, как именно устроен тот или иной рекомендательный механизм, зато показывают, какие коммуникативные практики устойчиво поддерживаются и воспроизводятся в интернете. Для этого достаточно внимательно наблюдать репрезентативные кейсы — моральные паники, скандалы, вирусные флешмобы — и смотреть, какие сценарии поведения в них оказываются вознаграждаемыми, а какие стремительно исчезают из поля видимости. От квантификации к иллюзии объективности Ключевой инструмент, через который алгоритмическая публичность становится видимой, — это метрики. За считанные годы они превратились из вспомогательных показателей для маркетологов в своеобразный язык описания социальной реальности: число подписчиков, коэффициент вовлеченности, вероятность того, что люди поделятся постом или упомянут бренд в другом месте, — всё это больше не выглядит техническими деталями, а воспринимается как объективное знание о том, что нравится людям и как устроено их внимание. Отсюда возникает ощущение, что метрики дают доступ к подлинной картине реальности: мы не понимаем, как работает алгоритм, но верим, что, собирая и анализируя цифры, можем реконструировать поведение людей, их вкусы и реакции. В каком-то смысле это правда — метрики действительно фиксируют различные аспекты взаимодействий, — но вместе с тем они заменяют глубокие вопросы об интересах и мыслях аудитории на более приземленные об их кликах и просмотрах. В результате пространство публичной коммуникации сжимается до того, что даёт лучший отклик по показателям, а всё остальное — плохо монетизируемое — оказывается на периферии. Так метрики становятся не только инструментом измерения, но и задают недвижимую рамку, внутри которой играют бренды, медиа, НКО, активистские группы и обычные пользователи, — правила игры одинаково действуют на всех, даже если кто-то пытается их игнорировать. Конфликт как выгодный сценарий В условиях, когда внимание измеряется и монетизируется, одним из самых эффективных способов его привлечь становится конфликт. Вокруг спорной темы или громкого скандала собирается не только действующая аудитория, но и те, кто до этого не следил за участниками перепалки и приходит исключительно посмотреть, что между ними происходит. Конфликтная коммуникация идеально ложится на логику алгоритмов: она порождает много интеракций — комментариев, перепостов, реакций — и за счет этого повышает общие показатели вовлеченности, с которыми работают платформы и SMM-команды. При этом тип контента и его качество, в привычном гуманитарном смысле означающее проверенность фактов и добросовестную аргументацую, далеко не всегда играют решающую роль: алгоритмы одинаково с готовностью усиливают и тщательно выверенные тексты, и эмоциональные вспышки, и фейковые сообщения, если все они собирают достаточно активностей. Команды, которые умеют работать с кризисами, довольно быстро адаптируются к такой конфигурации и выстраивают кризис-менеджмент так, чтобы конфликт можно было использовать в свою пользу — валидировать собственную позицию и подтягивать авторитетных гейткиперов, превращая негативное внимание в ресурс роста. В этой логике конфликт перестает быть исключительно угрозой и превращается в ещё один инструмент, который нужно уметь грамотно применять и дозировать. Цена этой эффективности — постепенное смещение акцента в публичном пространстве, когда вместо поиска аргументов и общих оснований оказывается выгоднее создавать и поддерживать драму. Площадки поощряют яркую, поляризующую повестку: скандалы, интриги, расследования, троллинг и буллинг оказываются более заметными и лучше вознаграждаемыми, чем сложные, но менее конфликтные разговоры. Почему людям становится тесно в соцсетях На уровне пользовательского опыта всё это складывается в специфическое ощущение усталости. Если раньше отсутствие аккаунтов на нескольких платформах воспринималось как странность, то сегодня оно становится обычным выбором — многие сознательно уходят с части площадок или оставляют только одну, не пытаясь быть везде. Часть людей делает выбор в пользу небольших «ламповых» форматов: закрытых групп и малых телеграм-каналов, — вместо того, чтобы постоянно держаться в опасной близости к большим, конфликтно настроенным соцсетям. Публичность как таковая не исчезает, но меняется ее масштаб и градус: чем меньше площадка, тем проще контролировать её правила и устраивающий всех уровень эмоционального напряжения. Кроме того, меняется содержание обсуждений в соцсетях. Под постами можно увидеть сотни комментариев, значительная часть которых выглядит как хаотический шум — от автоматизированных вставок ботов до агрессивных реплик, свидетельствующих скорее о личных проблемах автора, чем о желании разбираться в теме. Среди этого потока функциональные комментарии, вносящие развёрнутое и обоснованное мнение, часто оказываются в меньшинстве, — потому, что многие сознательно предпочитают не ввязываться, не тратить эмоциональные ресурсы на публичные баталии. Получается, что алгоритмическая публичность парадоксальным образом одновременно расширяет и сужает пространство общения. С одной стороны, технически высказаться стало проще, чем когда-либо, ведь достаточно нескольких кликов, чтобы опубликовать текст, аудио или видео. С другой стороны, сама архитектура платформ и их логика ранжирования повышают вероятность столкновения с токсичной коммуникацией, и всё больше людей выбирают стратегию тихого чтения без участия, сокращения числа площадок или полного ухода из соцсетей. Потеря агентности как повседневный опыт На фоне алгоритмизации платформ особенно заметным становится разговор об агентности — способности человека направлять свои действия, выбирать, на что тратить время и внимание, и удерживать контроль над собственной вовлеченностью. В традиционной социологической оптике агентность — это прежде всего вопрос отношений субъекта и структур: насколько человек может действовать автономно в рамках заданных норм и институтов. В среде алгоритмической публичности человек начинает хуже управлять своими когнитивными функциями, потому что среда устроена так, чтобы облегчить сценарий «все побежали — и я побежал». Характерный пример — механика трендового контента. На платформе появляется ролик или рилс, который идеально попадает в набор признаков виральности: актуальная тема, эмоциональная подача, удобный формат, использование популярного звука или визуального шаблона. Алгоритм предлагает его тем, чьи поведенческие следы — клики, лайки, подписки — показывают потенциальный интерес к подобным сюжетам, и человек действительно смотрит видео, потому что ему оно кажется релевантным. Дальше запускается автопилот. После первого ролика следуют еще десятки аналогичных: на ту же тему, по тому же сценарию, в похожей тональности — смешной или драматической. Через полчаса или час пользователь обнаруживает, что в очередной раз вывалился из ленты без ясного понимания, зачем вообще проводил там столько времени и какие именно ролики посмотрел. В случае с популярным сегодня терапевтическим контентом ситуация усложняется. В сети множатся видео, обещающие десять лет психотерапии за одну минуту — наборы универсальных рецептов на сложные темы вроде типа привязанности, выхода из токсичных отношений или переживания травматического опыта. Такой контент легко становится виральным: он обещает быстрое облегчение и простые ответы на тяжелые вопросы, при этом не требует усилий и зачастую не сопровождается оговорками о границах применимости, индивидуальных различиях или рисках. Фактическая потеря агентности здесь заключается в том, что человек не распределяет сознательно свои ресурсы, а скользит по траектории, заданной архитектурой платформы, усилиями создателей виральных роликов и логикой рекомендательных алгоритмов. Это не отменяет способности к рефлексии, но требует от пользователя дополнительных усилий. Чтобы вернуть себе ощущение контроля, нужно сначала заметить, как именно тебя несет по ленте, и признать это проблемой. Эскапизм, который может работать Важно при этом не скатываться в черно-белые оценки, где любая потеря агентности объявляется безусловным злом. Есть сценарии, в которых добровольное отпускание вожжей становится осознанным инструментом — например, когда человек в тяжелый день выбирает полчаса смотреть видео с животными, потому что они гарантированно обеспечат нужное эмоциональное облегчение без претензий на глубокую переработку опыта. Такой эскапизм, если он вписан в привычную структуру жизни и не обнуляет другие формы деятельности, может выполняться как относительно безобидная стратегия, позволяющая быстро переключиться и снизить уровень стресса. Проблема начинается там, где временная потеря агентности превращается в базовый режим существования — когда человек уже не задаётся вопросами, зачем он здесь, почему подписывается именно на эти аккаунты, для чего позволяет незнакомым людям комментировать свою жизнь, а просто плывет по течению ленты. Отсюда и ключевое требование к современному пользователю — развитие рефлексивности. Чтобы сознательно пользоваться возможностью отключиться на час, нужно уметь ясно ответить самому себе, для чего и в каких случаях это допустимо, какие границы не должны быть пересечены и какие сигналы будут означать, что временная разрядка превратилась в хроническую зависимость от чужих сценариев. В этом смысле десубъективация — потеря субъектной позиции — перестает быть угрозой только со стороны алгоритмов и становится частью привычки: если человек не задумывается, зачем он вообще присутствует в соцсетях, какие именно задачи решает с их помощью, он автоматически подстраивается под чужую логику. Тезисы о всеобщей информационной перегрузке и перманентном скролле оказываются не первопричиной, а следствием архитектуры платформ и нежелания или невозможности регулярно задавать себе неудобные вопросы. Цифровой этикет: больше, чем правила переписки В популярном дискурсе цифровой этикет часто сводят к набору прикладных рекомендаций: не отправлять голосовые сообщения без предупреждения, не звонить без согласия, правильно оформлять письма и завершения разговоров. Но если смотреть шире, этикет в цифровой среде не исчерпывается деловой перепиской и хорошими манерами онлайн. Цифровой этикет включает столкновение людей с разным уровнем цифровой грамотности и разными представлениями о допустимой степени публичности. В одном и том же пространстве сосуществуют те, кто легко выстраивает многоуровневые стратегии самопрезентации, и те, кто искренне не понимает, почему массовая рассылка открыток или поздравлений считается навязчивой. Их действия могут восприниматься как нарушение неписаных правил, хотя для них самих они выглядят обычным выражением симпатии или вежливости. К этому добавляется разнообразие платформенных культур. Стиль общения в X (бывшем Twitter) радикально отличается от того, как обсуждают темы во «ВКонтакте» или «Одноклассниках», и переход аудитории из одной среды в другую зачастую порождает ощущения вторжения и непонимания. Так, когда в условно «бумерскую» площадку приходят более молодые пользователи с привычными им языком и форматом шуток, а старые жители площадки воспринимают это как нашествие и разрушение привычного уклада. Всё это говорит о том, что цифровой этикет — не только вопрос формулировок и технических правил, гораздо в большей степени это социальный разговор о границах и распределении ответственности. Он касается не только текста и речи, но и действий вроде подписок, молчаливого игнорирования, скриншотов частной переписки и переноса онлайн-конфликтов в офлайн. Когда в поле выходят ИИ-компаньоны В эту уже сложную конфигурацию добавляется новый игрок — искусственный интеллект. Его присутствие в повседневной коммуникации давно вышло за пределы специализированных приложений: многие почтовые сервисы подсказывают окончания фраз, аналитические панели помогают прогнозировать поведение аудитории, рекомендательные системы подбирают образовательный контент, а голосовые ассистенты становятся посредниками между пользователем и цифровой инфраструктурой. На уровне общественных тревог ИИ часто обсуждается в двух полюсах. Первый — опасения по поводу того, что ИИ-приложения, играющие роль психотерапевтов или эмоциональных поддерживающих собеседников, не способны считывать нюансы, пропускают опасные кейсы и могут в логике безусловной поддержки валидировать рискованное или саморазрушительное поведение там, где живой специалист скорее бы их остановил или перенаправил. Второй полюс — страх перед тем, что подростки и молодые взрослые начнут предпочитать ИИ-компаньонов живому общению, подменяя сложные человеческие отношения более предсказуемым и безопасным диалогом с агентом. Отдельная линия — эксперименты в образовании, где часть функций учителя, тьютора или наставника переходит к ИИ, и это вызывает закономерные вопросы о том, насколько допустима такая передача, какие задачи реально можно делегировать системе, а где необходим живой человек, способный считывать контекст и неочевидные детали. Эти обсуждения важны, но часто остаются на уровне абстракций, пока не появляются конкретные кейсы, которые позволяют увидеть и потенциальные риски, и неожиданные преимущества. Клаус, сократический чат и библиотеки без книг Если говорить об этих кейсах, становится заметно, насколько разнообразными уже сейчас оказываются сценарии включения ИИ в коммуникацию. В одном из российских университетов, например, создан ИИ-ассистент Клаус — помощник на курсе по программированию на естественном языке, который взаимодействует со студентами как соучастник образовательного процесса, способный отвечать на широкий спектр запросов. В корпоративном секторе крупные компании экспериментируют с тем, как встроить ИИ в обучение пользователей. Один из примеров — чат, в котором система вместо мгновенной выдачи готового решения ведет человека через цепочку уточняющих вопросов, превращая взаимодействие в подобие сократического диалога. Пользователь не получает ответ от некоего deus ex machina, а постепенно приходит к нему сам, при этом продолжая иметь дело с агентом, а не с живым собеседником. Существуют и кейсы более радикальных трансформаций. В одной из крупнейших технологических компаний объявлено о закрытии физических библиотек на кампусах и переходе к модели AI-driven learning: вместо привычного пространства с книгами и электронными базами знаний сотрудникам предлагается инфраструктура, где ключевыми посредниками становятся интеллектуальные системы, подбирающие материалы под конкретные запросы и задачи. Одновременно сокращается число корпоративных подписок на внешние медиа, а это меняет не только привычки чтения, но и экономику редакций, которые полагались на такие контракты. В сфере диалоговых моделей тоже происходят изменения: некоторые разработчики заявляют о готовности отказаться от интеграции рекламных модулей в свои агенты, обосновывая это тем, что общение с ИИ строится вокруг идеи преданности человеку, совместного решения задач и невозможности совместить такую логики с нативной рекламой и платной джинсой. В совокупности эти примеры показывают, что ИИ-компаньоны уже выходят за пределы узких ниш и становятся частью повседневной коммуникации. Они меняют маршруты получения знаний, структуру времени и конфигурацию доверия между человеком и институцией. ИИ как когнитивный экзоскелет Становится очевидно, что привычная метафора ИИ как инструмент оказывается слишком узкой. Молоток, как правило, безразличен к тому, какой гвоздь мы забиваем и для чего, — он не хранит историю взаимодействий и не учится на наших ошибках, подстраиваясь под индивидуальные предпочтения. Современные же ИИ-системы всё больше напоминают когнитивный экзоскелет — надстройку над человеческим мышлением, которая одновременно расширяет наши способности и создает новую зону зависимости. Они помогают генерировать идеи, структурировать информацию, и часто делают это быстрее и эффективнее, чем человек в одиночку, но за эту скорость и удобство приходится платить изменением самой структуры усилий. Парадокс в том, что многие люди до сих пор воспринимают ИИ как нечто внешнее, необязательное, находящееся по ту сторону их повседневности. Между тем значительная часть привычных сервисов уже давно AI-driven: когда почтовый клиент предлагает закончить фразу, когда лента автоматически сортирует сообщения по предполагаемой важности, когда навигатор прогнозирует время в пути с учетом динамики, — мы взаимодействуем с ИИ, даже если не запускаем специально никаких приложений и не разговариваем с голосовыми ассистентами. Отказ от признания этого факта не отменяет участия в алгоритмизированных процессах, только лишает человека возможности осмысленно к ним адаптироваться. Если человек считает, что его это не касается, то он легко пропустит момент, когда ИИ-компаньоны станут одним из фундаментальных кирпичиков социальной реальности — аналогом поисковых систем, без которых сегодня трудно представить себе работу, учебу и базовую ориентацию в мире. Capability overhang: когда возможностей больше, чем практик На этом фоне набирает силу феномен capability overhang — разрыва между реальными техническими возможностями систем и тем, как они используются на практике. Современные модели способны решать заметно более широкий спектр задач, чем те, которые им доверяет массовый пользователь или осторожный институт: от анализа сложных текстов и моделирования сценариев до участия в научных дискуссиях и разработке концептуальных решений. Этот разрыв порождает два разных подхода к регулированию и этике. В одном случае ИИ мыслится как молоток: задача стоит в том, чтобы ограничить доступ к опасным темам, прикрутить цензуру и ввести фильтры. В другом — как агент, который неизбежно отражает и усиливает те практики, что уже существуют в обществе, и тогда внимание переключается с контроля контента на обсуждение того, какие именно сценарии мы хотим поддерживать, как распределять ответственность между участниками платформы и какие нормы поведения считать приемлемыми. Ни один из подходов не дает простых ответов, но оба подчеркивают необходимость этической осознанности — как минимум на двух уровнях. Во-первых, от разработчиков и корпораций требуется прозрачность намерений и минимальные гарантии того, что системы не будут встроены в манипулятивные или откровенно вредные практики. Во-вторых, пользователям приходится осваивать новые формы цифровой грамотности, которые включают не только технические навыки, но и умение задавать вопросы о целях, границах и последствиях. Что остается человеку в алгоритмическом мире Алгоритмическая публичность, рост конфликтной видимости, потеря агентности и появление ИИ-компаньонов — всё это части одной большой трансформации в соцсетях. Цифровые платформы больше не выглядят временными интерфейсами между настоящей жизнью и интернетом. Они становятся средой по умолчанию, в которой складываются репутации, политические кампании, активистские движения, образовательные траектории и интимные отношения. Агентность в этом контексте оказывается не исходной данностью, а результатом усилий каждого пользователя. Она требует регулярного пересмотра собственных цифровых привычек, способности отказываться от сценариев, которые когда-то казались естественными, и готовности признавать, что даже самые удобные технологии не освобождают от необходимости принимать решения — они лишь перестраивают пространство, в котором эти решения принимаются.
Алгоритмическая публичность: влияние платформ на нашу самостоятельность
26 марта26 мар
17 мин
За последние десять–пятнадцать лет публичное пространство незаметно, но радикально изменилось и стало алгоритмическим. Платформы собирают и пересчитывают каждое движение пользователя, превращая коммуникацию в управляемый набор метрик, а конфликты — в удобный сценарий роста видимости контента и вовлеченности. На этом фоне разговоры о потере агентности уже не выглядят философской абстракцией и становятся попыткой вернуть себе право решать, что и как мы потребляем, кому отвечаем и какие отношения строим в Сети — в том числе с искусственным интеллектом, который из молотка для забивания гвоздей превращается в когнитивный экзоскелет. Алгоритмическая публичность как новая норма Мы живем в мире, где большинство наших публичных жестов проходят через платформенные экосистемы, и каждая из них организована вокруг собственных алгоритмов: они решают, какие посты мы увидим, кого нам предложат добавить в друзья и чей ролик окажется в наших рекомендациях. При этом сами алгоритмы остаются закрытыми — и