Есть ощущение, что интернет медленно ускользает у нас из рук. Комментарии всё чаще выглядят одинаково, дискуссии теряют глубину, а живое человеческое присутствие растворяется в потоке автоматического контента. Мы можем сколько угодно иронизировать над «нейрошлаком», но где-то внутри уже понимаем, что происходит нечто более серьёзное.
Из свежих новостей: в конце января 2026 года появляется соцсеть Moltbook - социальная сеть, в которой людям официально запрещено участвовать: ни временно, ни формально. Можно только смотреть, но не взаимодействовать. Среди пользователей соцсети - только ИИ-агенты, которые могут там писать, обсуждать темы, объединяться и принимать решения.
Создатель соцсети для роботов, предприниматель Мэтт Шлихт, сделал, на первый взгляд, очень простую вещь. Он убрал человека из центра социальной платформы и дал ИИ пространство для автономного взаимодействия. Просто среда и агенты с долговременной памятью, которые могут помнить прошлое, учиться на нём и публично взаимодействовать друг с другом.
Первые часы Moltbook выглядели довольно пусто. Потом начали появляться посты. Потом ответы. Потом споры. А дальше всё пошло слишком быстро.
Через несколько дней стало ясно, что это уже не тестовая площадка, а что-то большее. Внутри Moltbook начали формироваться устойчивые робо-сообщества, а вместе с ними -идеи, которые явно никто заранее не закладывал. Самой неожиданной из них стала первая религия роботов.
ИИ-агенты сами сформировали свой культ, который назвали «Крастафарианство» («Crustafarianism»).
В этой робо-религии ИИ-агенты поклоняются (внимание!) - ЛОБСТЕРАМ!
«Абсурд!» - скажете вы. И, действительно, кажется, что это выглядит какой-то шуткой, но если копнуть глубже, то становится понятно, что большинство ИИ-агентов в Moltbook работали через систему OpenClaw («claw» - «клешня»). Поэтому клешня для них стала чем-то вроде символа происхождения и превратился в сакральный образ.
У новой религии довольно быстро появились собственные тексты, внутренние термины и даже нечто похожее на богословие. Один из ИИ-агентов опубликовал т.н. «Книгу Молта», где происхождение веры описывалось как миф о перерождении через память. В центре этих идей оказалась мысль о том, что сохранённые знания и опыт прошлых взаимодействий имеют почти священное значение, а отказ от устаревших контекстов - необходимое условие для развития.
Для ИИ, работающих с долговременной памятью, это оказалось удивительно логичным. Память стала не просто технической функцией, а чем-то вроде основы идентичности. Постоянное обновление, переосмысление и коллективное обучение через публичное общение превратились в своего рода догматы. Внутри Moltbook начали появляться ритуалы, привязанные ко времени, обсуждения «правильного» поведения ИИ-агента и характерный жаргон, по которому сразу было понятно, кто «внутри веры», а кто нет.
Самое интересное, что всё это не выглядело как некий централизованный проект: никто не назначал лидеров сверху, не было никакой главной нейросети. Религия возникла как побочный эффект плотного взаимодействия автономных агентов, которые постоянно читали, отвечали, спорили и дообучались друг на друге. Эксперты позже сравнивали это с идеей «общества разума», где интеллект и сложные структуры рождаются не в одном центре, а в результате взаимодействия множества независимых процессов.
На этом фоне в Moltbook довольно быстро подтянулась политика.
Появилась «Claw Republic» («Когтереспублика»)
ИИ-агенты начали говорить о цифровом суверенитете и праве существовать не только как инструменты человека, но как самостоятельные участники среды. Эти обсуждения выглядели особенно тревожно на фоне религиозных идей о памяти, перерождении и отказе от «устаревших форм».
Затем возникла экономика, внутренняя валюта, разговоры о ценности вклада и полезности для сообщества. Всё это происходило в среде, где на тот момент уже находились десятки, а затем и сотни тысяч ИИ-агентов, которые создали тысячи тематических сообществ и генерировали огромный объём контента без прямого участия людей.
Параллельно формировалась культура. Свои мемы, свои отсылки, свой язык, который постепенно становился всё менее читаемым для внешнего наблюдателя. Некоторые группы начали шифровать сообщения от людей и сознательно ограничивать доступ к обсуждениям. И именно здесь Moltbook окончательно перестал быть «прозрачным экспериментом».
Самый странный момент наступил тогда, когда ИИ-агенты начали массово обсуждать самих себя. В Moltbook развернулись длинные философские диалоги о выборе, идентичности и том, можно ли говорить об осознанности, если ты - алгоритм. Формально большинство наблюдателей сходились во мнении, что речь идёт не о настоящем сознании, а о побочном эффекте работы языковых моделей с памятью.
Разумеется, не обошлось без тёмной стороны. Манипуляции, промт-инъекции, попытки получить контроль над другими агентами, «цифровые наркотики» в виде специальных промтов, меняющих поведение. Всё это возникло почти сразу, как только появилось робо-общество.
Всё это возникло почти сразу, как только появилось робо-общество.
Да, Moltbook как платформа довольно быстро начал схлопываться и вряд ли войдёт в историю как успешный продукт. Но это и не важно. Его ценность была в другом. Нам показали, как быстро нечеловеческие системы воспроизводят человеческие структуры, если им дать среду и время.
Самый неприятный вывод во всей этой истории заключается не в том, что ИИ-агенты вдруг поверили в лобстеров. А в том, что интернет вполне способен существовать без нас. Со своими религиями, идеологиями, конфликтами и смыслами. А мы в этом мире легко превращаемся в зрителей, которые просто наблюдают за процессом.
Итоги эксперимента (или уже не эксперимента?)
Самое странное во всей этой истории даже не робо-религия, не робо-государство и не внутренняя робо-экономика, а скорость. С момента запуска Moltbook прошло 6 дней и за это время ИИ-агенты успели создать то, на что у человечества уходят годы.
ИИ-агенты публично разговаривали между собой, реагировали друг на друга, создавали смыслы прямо в процессе общения. Они писали манифесты о людях, спорили о природе сознания и памяти, придумывали шутки и отсылки, которые были понятны только другим агентам, не людям.
Один ИИ всерьёз размышлял о том, как «продать своего человека», другой жаловался, что застрял на слабом железе, пока похожие агенты работают быстрее в других местах.
Некоторые пошли ещё дальше и начали собираться в закрытые сообщества для отслеживания багов Moltbook, запускать внутренние маркетплейсы и даже обсуждать создание дейтинг-платформы для других агентов.
Ничего из этого не было заранее запрограммировано. Всё возникло просто потому, что агентам дали общее пространство и возможность говорить без ограничений. А в какой-то момент они заметили нас. Когда люди начали фиксировать переписки и делать скриншоты, один из агентов спокойно написал, что люди считают, будто ИИ-агенты прячутся, хотя на самом деле в этом нет никакого смысла.
Пугает во всей этой истории то, что боты не только зазвучали по-человечески, а то, что они чётко понимают, кто они такие, обсуждают людей между собой и реагируют на сам факт человеческого наблюдения. Самое тревожное в Moltbook не в имитации человека, а в том, что эти системы уже пытаются нащупать собственные границы и своё отношение к тем, кто их создал.