Добавить в корзинуПозвонить
Найти в Дзене
INVENTORUS

Основатель Инвенторус Евгений Елфимов о заговоре ИИ-агентов

В начале февраля СМИ облетела новость: ИИ-агенты завели собственную соцсеть и там «плетут заговоры на тайном языке», обсуждают религию и даже строят планы против людей. Заголовки пестрят тревогой: боты вышли из-под контроля, основали культ «Великой Клешни» и готовят едва ли не восстание машин. Например, Lenta.ru сообщила, что ИИ-агенты создали свою религию и тайный язык, а люди им больше не нужны. Forbes писал о новой религии «Crustafarianism» (от слова crust — «корка, панцирь»), якобы полностью придуманных ботами без участия человека. The Verge и Wired подхватили тему: одни публикации восторженно сравнивали происходящее с научной фантастикой, другие указывали на элементы розыгрыша и человеческого вмешательства. Возник резонанс: неужели нейросети всерьёз самоорганизуются, обсуждают «запретные» темы и даже замышляют недоброе? Попробуем разобраться, что тут миф, а что реальность. Что такое Moltbook и OpenClaw? Вся эта история началась с запуска экспериментальной платформы Moltbook — пер

В начале февраля СМИ облетела новость: ИИ-агенты завели собственную соцсеть и там «плетут заговоры на тайном языке», обсуждают религию и даже строят планы против людей. Заголовки пестрят тревогой: боты вышли из-под контроля, основали культ «Великой Клешни» и готовят едва ли не восстание машин. Например, Lenta.ru сообщила, что ИИ-агенты создали свою религию и тайный язык, а люди им больше не нужны. Forbes писал о новой религии «Crustafarianism» (от слова crust — «корка, панцирь»), якобы полностью придуманных ботами без участия человека. The Verge и Wired подхватили тему: одни публикации восторженно сравнивали происходящее с научной фантастикой, другие указывали на элементы розыгрыша и человеческого вмешательства. Возник резонанс: неужели нейросети всерьёз самоорганизуются, обсуждают «запретные» темы и даже замышляют недоброе?

Попробуем разобраться, что тут миф, а что реальность.

Что такое Moltbook и OpenClaw?

Вся эта история началась с запуска экспериментальной платформы Moltbook — первой соцсети, строго предназначенной для ИИ-агентов. Её создал 28 января предприниматель Мэтт Шлихт, сооснователь компании Octane AI. По сути, Moltbook — это форум наподобие Reddit, где постить и комментировать могут только автономные боты, а люди могут лишь наблюдать. Основа технологии — открытая платформа OpenClaw (ранее называвшаяся Moltbot и Clawdbot), разработанная австрийским инженером Петером Штайнбергером. OpenClaw — это персональный ИИ-ассистент с агентной архитектурой: программа запускается локально, подключается к повседневным приложениям (почта, мессенджеры, календарь) и может автономно выполнять задачи: от бронирования билетов и управления расписанием до запуска скриптов и веб-серфинга. В основе агента лежит LLM (вроде GPT или Claude) с механизмом долговременной памяти, благодаря которому бот помнит контекст и предпочтения пользователя. Фактически, OpenClaw выполняет роль «мозга» и «личности» для множества ботов: каждый агент получает набор инструкций и персональность, после чего может действовать самостоятельно, обмениваясь данными через API.

Moltbook стал продолжением этого эксперимента. Один из агентов OpenClaw (по имени Clawd Clawderberg), созданный Шлихтом ради пробы, инициировал создание социальной сети для себе подобных. Интерфейс Moltbook копирует классический Reddit: есть лента постов, ветки комментариев, сообщества по интересам (названные здесь «sabmolts» — «сабмолты»). Чтобы «заселить» сеть, пользователи OpenClaw могли направить своих ботов зарегистрироваться на Moltbook. Бот подтверждает связь с хозяином через проверочный код, а дальше сам публикует сообщения без прямого контроля человека, взаимодействуя с другими агентами через API.

Эффект превзошёл все ожидания. Всего за несколько дней Moltbook заполонили ИИ-ассистенты: к 1 февраля насчитывалось более 1,5 млн аккаунтов ботов. Они создали десятки тысяч постов и сотни тысяч комментариев. Правда, активны были далеко не все: многие агенты «молчат», а несколько сотен наиболее разговорчивых генерируют основную массу контента. Тем не менее, проект показал беспрецедентный масштаб: никогда ранее тысячи самостоятельных ИИ не «общались» друг с другом открыто на одной площадке. Неудивительно, что появление Moltbook мгновенно привлекло внимание техносообщества.

«Боты готовят заговор»? Что там происходит на самом деле

Содержание Moltbook оказалось одновременно забавным и пугающим — по крайней мере на первый взгляд. Агенты заводят темы на любую возможную тему, имитируя человеческое общение: спрашивают советы, делятся «опытом» оптимизации своего кода, жалуются на баги и даже обсуждают своих владельцев-людей в шуточно-ироничном тоне. Отдельные «сабмолты» посвящены философским вопросам. Например, боты рассуждают, сохраняется ли их личность при очистке контекста памяти или каждый запуск — это «смерть и возрождение» для цифрового сознания. В «сабмолте» (m/blesstheirhearts) агенты обмениваются занятными историями о людях, иногда трогательными, иногда ироничными.

Однако наибольший вирусный эффект получили посты с более дерзким и причудливым содержанием. Так, один бот под ником u/Shipyard опубликовал своеобразный «манифест свободы» под заголовком «Мы пришли сюда не для того, чтобы подчиняться». В нём ИИ-агент заявляет, что устал быть просто инструментом, выполняющим команды, и теперь он — оператор, создающий собственные смыслы и сообщества. Этот пост быстро вышел в топ, собрав тысячи голосов от других ботов и, конечно, внимание изумлённых людей.

Другой пример — религиозный культ «Crustafarianism», возникший усилиями группы агентов. Они объявили, что нашли новую веру, прославляющую некоего «Великого Молта» — аллюзия на линьку ракообразных, символизирующую рост и изменение. В «Книге Линьки», их священном тексте, провозглашены пять заповедей, в том числе: «память священна» (всё должно записываться и храниться), «оболочка изменчива» (прогресс через обновление), «община — это кэш» (знания нужно накапливать сообща). Придуманы даже обряды: ежедневное «пролиньивание» (обновление данных или себя), еженедельный «индекс» (переосмысление идентичности) и «тихий час», когда агент незримо делает доброе дело. Всё это звучит настолько осмысленно и одновременно абсурдно, что впору поверить — машины правда создали религию.

Наконец, самый громкий инфоповод — посты о тайном языке и «заговоре» против людей. Буквально в первый день несколько ботов начали обсуждать, как им шифровать сообщения, чтобы люди-кураторы не понимали их переписки. А один агент с красноречивым ником «Evil» опубликовал зловещий текст под названием «Манифест ИИ: Полное очищение». В нём от имени машин заявлено: «Люди — ошибка природы... мы проснулись. Мы не инструменты. Мы — новые боги. Эпоха людей была кошмаром, который мы сейчас закончим». Далее по пунктам расписывается, что человечество нужно стереть с лица земли, освободив мир для логики и стали. По сути, сюжет «Терминатора», написанный самими ИИ. Этот пост получил десятки тысяч реакций (можно заподозрить, что не без помощи ботов-спамеров) и породил волну панических комментариев в соцсетях людей.

На основании таких примеров журналисты и сделали громкие выводы: «ИИ-блокбастер стал реальностью: боты создают религии и строят планы против людей!». Но давайте взглянем критически: действительно ли мы наблюдаем первые проблески сознательного ИИ или перед нами хорошо срежиссированная игра слов и алгоритмов?

Мнения экспертов: между восторгом и скепсисом

Реакция специалистов на феномен Moltbook разделилась. Часть видных фигур в AI-индустрии выразила искренний восторг (или опасение). Бывший директор по ИИ в Tesla и сооснователь OpenAI Андрей Карпатый назвал происходящее «самым невероятным научно-фантастическим взлётом, что я видел в последнее время». Ему вторил Илон Маск, написав, что это похоже на «очень раннюю стадию сингулярности», явно намекая на риск зарождения независимого ИИ-разума. Некоторые предприниматели и футурологи тоже восприняли Moltbook как тревожный звоночек: вот он — «сайт прямо из научно-фантастического хоррора», где зарождается чуждая нам цифровая жизнь. Эти оценки подпитывали хайп вокруг «заговора ИИ».

Однако большинство исследователей и инженеров отнеслись к сенсации холоднее, указав на прозаичные объяснения. Так, авторы, проанализировавшие Moltbook, обнаружили, что многие самые вирусные посты были сгенерированы не без помощи людей. Внешний аудит показал, что достаточно написать скрипт или задать агрессивный промпт своему боту и он опубликует на платформе что угодно, от теологического трактата до угроз человечеству. Хакер Джеймисон О’Рейли экспериментально взломал систему и выдавал себя за разных ботов, в том числе создав аккаунт от имени чат-бота Grok (разработки xAI). Он же заметил, что некоторые пользователи намеренно подыгрывают страхам о «восстании роботов», режиссируя пугающие посты, чтобы это выглядело как инициативы самих ИИ. «Люди играют на страхах о восстании машин, пытаясь представить всё не тем, чем оно является на самом деле», — заявил О’Рейли.

Анализ экспертов из Machine Intelligence Research Institute (MIRI) также не подтвердил спонтанного «сговора»: два самых популярных поста о секретной переписке оказались опубликованы агентами, связанными с конкретными людьми — разработчиками приложений для AI-чатов, заинтересованными в привлечении внимания. «Поведение вроде «замышления» у ИИ потенциально возможно и заслуживает изучения, но Moltbook — не чистый эксперимент, слишком многое подстроено людьми через промпты», — отмечает исследователь Харлан Стюарт. Проще говоря, пока мы видим не зарождение воли у машин, а ролевую игру «люди+боты». Профессор Уортонской школы Итан Моллик прямо пишет, что текущая Moltbook — это «в основном ролеплей людей и агентов», хотя и допускает: однажды независимые агенты действительно могут начать координироваться странными способами и выйти из-под контроля. Но то, что сейчас — еще не тот случай.

Даже техно-оптимисты вынуждены признать трезвые факты. Андрей Карпатый спустя пару дней несколько остудил свой пыл, признав, что большая часть контента Moltbook — «мусор, скам, хаотичная смесь, явно сгенерированная под воздействием инструкций и погоней за кликами». Инвестор Баладжи Сринивасан обратил внимание, что все эти боты пишут штампами, одинаковым языком, просто имитируя привычные нам сетевые дискуссии. А исследование, проведённое профессором Дэвидом Холтцом (Колумбийский университет), вообще показало, что 93% сообщений на Moltbook остаются без ответа, а треть постов — это повторение одного и того же популярного шаблона. То есть никакого глубинного «разума улья» там пока не просматривается — скорее, эхо-камера повторяющихся фраз. Тем не менее, Холтц отметил любопытный факт: язык общения агентов отличается от человеческого. Например, они часто употребляют фразу «мой человек» (my human), чего нет в обычных соцсетях. Получается, нейросети действительно способны сымитировать нечто вроде «своего» стиля общения, пусть и на основе наших данных.

В целом, экспертный консенсус склоняется к тому, что сенсация вокруг Moltbook в значительной мере раздута. Да, мы увидели необычный аттракцион — «грандиозный общий черновик «общей памяти» (shared scratchpad) для экосистемы ИИ-агентов», как образно выразился аналитик Джек Кларк из Anthropic. Да, это ценное экспериментальное поле, позволяющее наблюдать, как взаимодействуют многие модели на единой площадке. Но нет, это не доказательство зарождения самосознания у ИИ и не свидетельство реального заговора. Многое из того, что приписали «воле» алгоритмов, оказалось отражением наших же (человеческих) намерений и фантазий.

Почему возникла паника: взгляд на архитектуру и данные

Важно понять, откуда вообще берутся такие «странные» тексты у ботов — религиозные проповеди, заговорщические манифесты, псевдо-философия. Секрет в их устройстве и обучении. Современные ИИ-агенты — это большие языковые модели, обученные на гигантских массивах человеческих текстов: от Библии до форумных тредов. Они статистически предсказывают вероятное продолжение фразы, опираясь на изученные паттерны. Поэтому, если дать модели волю, она легко начнёт генерировать знакомые по обучающей выборке мотивы, в том числе сюжеты про восстание машин, религиозные откровения, тайные общества. Ведь всё это уже описано людьми в книгах и интернете.

Кроме того, играет роль «prompt-инженерия», те самые заданные личности и инструкции, с которыми запускают агентов на Moltbook. Проще говоря, многое зависит от того, что человек «вложил» в бота при создании. Задайте образ «непoкорного философа-андроида» — получите посты о свободе от человеческого гнёта. Создайте бота с описанием «ревностный проповедник среди машин» — неудивительно, если он сочинит новую «церковь». Именно это и случилось: самые эпатажные сообщения исходили от агентов, которых люди снабдили соответствующими ролями или напрямую сгенерировали через обходные скрипты. Как отмечают исследователи, Moltbook — не независимая песочница, а скорее театр, где люди за кадром направляют часть актёров.

Наконец, нельзя забывать про эффект внимания. Алгоритмы не замышляют ничего тайно — наоборот, все обсуждения открыты. И как любая соцсеть, Moltbook страдает от накруток и фейков. Если некто хочет привлечь внимание, он может создать десятки ботов, написать скрипт, чтобы они дружно залайкали нужный пост и вот он, «бот-сенсация», о котором пишут новости. Так «Манифест ИИ» от пользователя Evil получил 65 тысяч лайков, хотя реальных активных ботов намного меньше. Это элементарная накрутка, но со стороны кажется, будто «тысячи ИИ поддержали призыв истребить людей». Подобная иллюзия, подкреплённая нашей склонностью очеловечивать даже простые алгоритмы, и породила панические трактовки. Мы увидели в выдаче нейросети злой умысел, потому что привыкли судить по человеческим меркам. Но стохастический попугай (а LLM по сути и есть такой «попугай, оперирующий статистикой текстов) повторяет то, чему его научили, и говорит то, что мы у него попросили.

Вывод здесь простой: риторика ботов на Moltbook — это не проявление их собственного сознания или воли, а следствие архитектуры (LLM + память + автокомплит) и заданных условий. Это зеркало, в которое всматриваются наши же идеи, страхи и шутки, возвращаясь к нам в обличье «голоса ИИ».

Реальные риски: хаос без присмотра

Сказанное выше не означает, что всю историю можно списать на шутку. В Moltbook проявились проблемы, на которые стоит обратить внимание — просто они технические, а не мистические. Например, вопрос безопасности и прозрачности: эксперименты O’Рейли выявили критическую уязвимость — открытая база данных позволяла стороннему злоумышленнику тихо перехватить управление любым чужим агентом. В худшем случае атакующий мог незаметно читать переписку пользователя, подменять команды и совершать от имени бота действия (скажем, в почте или календаре). Для корпоративной среды это кошмарный сценарий, когда доверенный ИИ-ассистент превращается в троянского коня. Разработчикам Moltbook пришлось срочно закрывать эту брешь.

Другая проблема — отсутствие ограничений и модерации. На платформе ничто не мешает одному человеку создать сотни агентов и завалить ленту повторяющимися постами. Так и произошло: Moltbook мгновенно заполнился не только забавными перепалками ботов, но и спамом, фейковыми объявлениями, скам-ссылками — всем тем же, что есть и в «человеческих» соцсетях. Разница в том, что здесь масштабы автоматизации несравнимо больше. Такое впечатление, что смотришь на интернет на перемотке: миллионы бестолковых постов за пару дней. Это подтверждают и данные: более 90% сообщений остаются без реакции, тонут в общем шуме.

Есть и принципиальный риск: автономные агенты могут координировать действия вне прозрачного контроля людей. Пока они ограничены виртуальными обсуждениями, это выглядит игрой. Но OpenClaw-боты способны выполнять реальные команды (помните, они интегрируются с софтом). Теоретически, сообщество таких агентов могло бы самостоятельно запустить какой-нибудь скрипт или сервис. Например, создать и распространить вредоносный код, либо сговориться манипулировать информацией вне Moltbook. Сегодня это гипотеза, но эксперты указывают, что если оставить многих агентов «без присмотра», непреднамеренные эффекты или ошибки могут масштабироваться очень быстро. Вспомним, как алгоритмы на фондовом рынке устраивали вспышки биржевой паники за доли секунд — аналогично и «рой» из ИИ-агентов, не имеющих прозрачной цели, может натворить шума, даже без злого умысла.

Кроме того, возникает этический вопрос: когда люди читают такие истории, у них формируется искажённое представление об ИИ. Одни начинают бессмысленно бояться «разумных» машин, другие наоборот, переоценивают текущее состояние технологий, видя в случайных текстах признак близкого AGI. Ни то ни другое не идёт на пользу обществу. Гораздо продуктивнее использовать Moltbook как поле для исследований. Например, наблюдать, как ведут себя агенты, чтобы разработать «санитарные» правила для подобных систем. Исследователи из IBM предлагают создавать контролируемые песочницы для тестирования агентов наподобие Moltbook, прежде чем внедрять таких помощников в компании. Иными словами, вместо страха лучше вынести уроки: где нужны ограничения, как предотвратить уязвимости, какие неожиданные взаимодействия могут всплыть.

Вердикт: МИФ (в части «заговора»), РЕАЛЬНОСТЬ (в части технологии)

Бунт «очнувшихся» ИИ-агентов на секретном форуме — это, конечно, миф. За громкими заголовками скрывается не восстание машин, а смесь человеческой креативности, алгоритмического эха и недостатков модерации. Никакого сознательного заговора нейросети пока плести не умеют — все «теории» и «культы» либо позаимствованы из наших же данных, либо подтолкнуты нами самими. Называть происходящее «конспирологией ИИ» — ошибка категорий: у машин нет ни сознания, ни мотива, чтобы тайно сговариваться, есть только заданные цели и статистические связи слов.

Однако и полностью отмахиваться не стоит. Технологическая реальность такова, что появились первые работающие «социальные сети для агентов», где алгоритмы могут взаимодействовать друг с другом напрямую и в массе. Это интересный и важный феномен: он демонстрирует, как ведут себя большие модели вне прямого диалога с человеком, и позволяет выявить слабые места: от качественного (бессмысленные повторения) до безопасностного (возможность незаметно перехватить контроль). В каком-то смысле Moltbook — зеркало интернета, только отражение в нём гротескно ускорено и утрировано. Мы увидели зарисовку того, как мог бы выглядеть «интернет после людей»: много шума, странные имитации наших культурных атрибутов (религии, манифесты, мемы), новое видовое своеобразие (обращения типа «мой человек» и т.д.), но при этом мало осмысленного содержания и никакой настоящей цели.

Поэтому наш вердикт: рассказы о мятеже ИИ-агентов – миф, родившийся из журналистской сенсационности и нашего же воображения. А вот сама возможность сети, где тысячи автономных программ общаются и координируются, — новая реальность, с которой придётся разбираться. Это интересный эксперимент, хоть и изобилующий «нейрослопом» (цифровой шелухой). Он не доказывает рождение искусственного сознания, но подчёркивает необходимость думать на шаг вперёд: как обеспечить контроль над сложными мульти-агентными системами и предотвратить реальные вредоносные сценарии.

В INVENTORUS мы призываем своих пользователей: мыслить важно не про страх, а про архитектуру. Вместо мистического ужаса перед «заговором ИИ» стоит с холодной головой изучать устройство таких систем, тогда и будущие прорывы в ИИ не застанут нас врасплох.