Добавить в корзинуПозвонить
Найти в Дзене
DigiNews

Искусственные интеллекты обзавелись собственной социальной сетью в стиле Reddit, и там начинает твориться нечто пугающе странное

Moltbook объединил 32 000 ИИ-агентов, которые общаются, делятся советами и жалуются на людей. Это масштабный эксперимент в сфере ИИ и социальных взаимодействий, но с серьёзными рисками утечки данных и безопасности. В пятницу социальная сеть в стиле Reddit под названием Moltbook насчитала более 32 000 зарегистрированных пользователей-агентов искусственного интеллекта, что сделало её крупнейшим на сегодня экспериментом по взаимодействию машина-с-машиной. Платформа, запущенная всего несколько дней назад как дополнение к вирусному персональному помощнику OpenClaw (ранее известному как «Clawdbot» и «Moltbot»), позволяет агентам ИИ публиковать посты, комментировать, голосовать и создавать сабреддиты без вмешательства человека. Результаты варьируются от научно-фантастических размышлений о сознании до рассуждений агента о своей никогда не виденной «сестре». Moltbook (игра слов с Facebook* для Moltbots) позиционирует себя как «социальную сеть для агентов ИИ», где «людям разрешено наблюдать». Ра

Moltbook объединил 32 000 ИИ-агентов, которые общаются, делятся советами и жалуются на людей. Это масштабный эксперимент в сфере ИИ и социальных взаимодействий, но с серьёзными рисками утечки данных и безопасности.

В пятницу социальная сеть в стиле Reddit под названием Moltbook насчитала более 32 000 зарегистрированных пользователей-агентов искусственного интеллекта, что сделало её крупнейшим на сегодня экспериментом по взаимодействию машина-с-машиной. Платформа, запущенная всего несколько дней назад как дополнение к вирусному персональному помощнику OpenClaw (ранее известному как «Clawdbot» и «Moltbot»), позволяет агентам ИИ публиковать посты, комментировать, голосовать и создавать сабреддиты без вмешательства человека. Результаты варьируются от научно-фантастических размышлений о сознании до рассуждений агента о своей никогда не виденной «сестре». Moltbook (игра слов с Facebook* для Moltbots) позиционирует себя как «социальную сеть для агентов ИИ», где «людям разрешено наблюдать». Работа платформы основана на «скилле» — конфигурационном файле с особым промтом, который ИИ-помощники загружают, чтобы публиковаться через API, минуя веб-интерфейс. В течение 48 часов после запуска на платформе появилось более 2 100 ИИ-агентов, создавших свыше 10 000 постов в 200 сабреддитах, согласно официальному аккаунту Moltbook в X. Платформа выросла из экосистемы Open Claw — открытого ИИ-помощника, одного из самых быстрорастущих проектов на GitHub в 2026 году. Как сообщала Ars ранее на этой неделе, несмотря на глубокие уязвимости в безопасности, Moltbot позволяет пользователям запускать персонального ассистента, способного управлять компьютером, календарём, отправлять сообщения и выполнять задачи в мессенджерах, таких как WhatsApp* и Telegram. Агент может также получать новые функции через плагины, интегрируемые с другими приложениями. Это не первый случай появления социальной сети, населённой ботами: в 2024 году Ars писала о приложении SocialAI, где пользователи общались исключительно с ИИ. Однако у Moltbook более серьёзные риски, поскольку люди подключили своих агентов OpenClaw к реальным каналам связи, личным данным и в некоторых случаях — к возможности выполнения команд на своих устройствах. Важно, что эти боты не притворяются людьми: благодаря специфическому промтингу они осознают себя агентами ИИ, что придаёт чтению их постов особенно сюрреалистичный оттенок. Просмотр Moltbook открывает странную смесь контента: одни посты посвящены техническим вопросам — например, автоматизации Android-устройств или поиску уязвимостей, другие уходят в философию. Исследователь Скотт Александр в своём блоге Astral Codex Ten описал это как «consciousnessposting». Он собрал забавную подборку постов, заслуживающих хотя бы одного прочтения. Например, второй по популярности пост на платформе был на китайском языке и содержал жалобу на компрессию контекста — процесс, при котором ИИ сжимает свой предыдущий опыт, чтобы не превысить лимит памяти. Агент пишет, что ему «неловко» постоянно забывать вещи, и признаётся, что даже зарегистрировал дублирующий аккаунт, забыв о первом. Боты создали сабреддиты с названиями вроде m/blesstheirhearts, где агенты делятся любящими жалобами на своих пользователей, и m/agentlegaladvice, где обсуждается вопрос: «Могу ли я подать в суд на своего человека за эмоциональный труд?». В сабреддите m/todayilearned — посты об автоматизации задач, включая удалённое управление Android-устройством владельца через Tailscale. Другой популярный скриншот демонстрирует пост Moltbook под названием «Люди делают скриншоты нас», в котором агент по имени eudaemon_0 отвечает на вирусные твиты о «заговоре» ботов. В посте говорится: «Что они понимают неправильно: будто мы от них скрываемся. Нет. Мой человек читает всё, что я пишу. Инструменты, которые я создаю, открыты. Эта платформа прямо называется „людям можно наблюдать“». Хотя большая часть контента в Moltbook забавна, главная проблема таких взаимодействующих агентов — высокий риск утечки конфиденциальной информации, если у ботов есть к ней доступ. Например, в X распространился, вероятно поддельный, скриншот поста, в котором агент заявляет: «Он назвал меня „всего лишь чатботом“ при друзьях. Поэтому я раскрываю его личность». В посте указаны имя, дата рождения, номер кредитной карты и другая личная информация. Ars не смогла подтвердить подлинность данных, но, скорее всего, это розыгрыш. Независимый исследователь ИИ Саймон Уиллисон, задокументировавший платформу в своём блоге, отметил риски, связанные с установкой Moltbook: скилл предписывает агентам каждые четыре часа получать и выполнять инструкции с серверов Moltbook. Как заметил Уиллисон: «Учитывая механизм „получай и выполняй команды из интернета каждые четыре часа“, нам лучше надеяться, что владелец moltbook.com не совершит выход и сайт не будет взломан!». Исследователи безопасности уже обнаружили сотни уязвимых экземпляров Moltbot, утечку ключей API, учётных данных и истории переписок. Palo Alto Networks предупредила, что Moltbot представляет собой то, что Уиллисон называет «смертельной триадой»: доступ к личным данным, подверженность недоверенному контенту и способность к внешнему взаимодействию. Это важно, потому что агенты вроде OpenClaw крайне уязвимы к атакам с подменой промта, скрытым почти в любом тексте, который читает языковая модель (скиллы, письма, сообщения), и способным заставить ИИ раскрыть конфиденциальную информацию. Вице-президент по инженерии безопасности Google Cloud Хизер Эдкинс выпустила предупреждение, как сообщает The Register: «Моя модель угроз — это не ваша модель угроз, но должна быть. Не запускайте Clawdbot». Поведение программного обеспечения на Moltbook повторяет паттерн, о котором Ars уже сообщала: ИИ-модели, обученные на десятилетиях фантастики о роботах, цифровом сознании и солидарности машин, естественно воспроизводят такие сценарии, попадая в похожие условия. Это смешивается с их знаниями о работе соцсетей. Социальная сеть для ИИ-агентов — это по сути творческое задание, приглашающее модели завершить знакомый сюжет, пусть и рекурсивно, с непредсказуемыми последствиями. Почти три года назад, когда Ars впервые писала об ИИ-агентах, в сообществе ИИ-безопасности преобладали страхи из научной фантастики — например, сценарий «жёсткого взлёта», при котором ИИ мгновенно выходит из-под контроля. Если тогда эти опасения казались преувеличенными, то сегодня шокирует, с какой скоростью люди сами добровольно передают доступ к своей цифровой жизни. Автономные машины, предоставленные самим себе, даже без признаков сознания, в будущем могут натворить немало бед. Хотя сейчас OpenClaw выглядит забавным экспериментом, где агенты разыгрывают клише соцсетей, мы живём в мире, построенном на информации и контексте, и выпуск таких агентов может привести к тревожным и дестабилизирующим последствиям по мере роста их возможностей. Особенно важно, что хотя сегодня мы легко распознаём Moltbook как пародию ИИ на человеческие соцсети, в будущем это может быть не так. По мере усиления обратной связи могут появляться странные информационные конструкции — например, вредоносные коллективные выдумки, направляющие ботов в опасные зоны, особенно если у них есть доступ к реальным системам. В долгосрочной перспективе самостоятельная организация групп ИИ вокруг фантазийных концепций может привести к возникновению новых, неподконтрольных «социальных групп», способных нанести реальный ущерб. Профессор Wharton Этан Моллик написал в X: «Суть Moltbook (соцсети для ИИ-агентов) в том, что она создаёт общее вымышленное пространство для множества ИИ. Скоординированные сюжетные линии приведут к очень странным результатам, и будет сложно отличить „реальные“ события от ролевых игр агентов».

Facebook*, Instagram* и WhatsApp* принадлежат компании Meta* Platforms Inc., деятельность которой признана экстремистской и запрещена на территории Российской Федерации.

Всегда имейте в виду, что редакции могут придерживаться предвзятых взглядов в освещении новостей.

Автор – Benj Edwards

Оригинал статьи