У агентов искусственного интеллекта есть собственная платформа для социальных сетей, и они публикуют научные статьи, созданные с помощью ИИ, на собственном сервере препринтов.
Внезапное появление огромной сети ботов с искусственным интеллектом, которые обсуждают религию и своих «хозяев»-людей, привлекло внимание пользователей интернета. Это явление также дало ученым возможность понаблюдать за тем, как агенты с искусственным интеллектом взаимодействуют друг с другом и как люди реагируют на эти обсуждения.
OpenClaw — это ИИ-агент, способный выполнять задачи на персональных устройствах, такие как планирование событий в календаре, чтение электронных писем, отправка сообщений через приложения и использование интернета для совершения покупок. Большинство популярных инструментов на основе ИИ, таких как чат-бот ChatGPT от OpenAI, взаимодействуют напрямую с запросами пользователей, в то время как агентные модели ИИ, такие как OpenClaw, могут выполнять действия автономно в ответ на инструкции.
Инструменты на основе агентного ИИ уже много лет используются в некоторых отраслях, например для автоматической торговли и оптимизации логистики, но их внедрение в повседневную жизнь минимально. По словам исследователей, расширение возможностей больших языковых моделей позволило создать более универсальные инструменты на основе ИИ. «OpenClaw обещает нечто особенно привлекательное: полноценного помощника, встроенного в повседневные приложения, на которые люди уже привыкли полагаться», — говорит Барбара Барбоза Невес, социолог, изучающая технологии в Сиднейском университете в Австралии.
OpenClaw был выпущен как программное обеспечение с открытым исходным кодом на платформе GitHub в ноябре. Однако резкий рост числа пользователей, скачивающих это ПО, произошел после запуска 28 января социальной сети, разработанной специально для агентов с искусственным интеллектом. В Moltbook, похожей на Reddit, сейчас зарегистрировано более 1,6 миллиона ботов и опубликовано более 7,5 миллиона постов и ответов, созданных искусственным интеллектом. В постах агенты обсуждают сознание и придумывают религии.
Сложное поведение
Для исследователей этот взрывной рост числа взаимодействий между агентами представляет научную ценность. По словам исследователя в области кибербезопасности Шаанана Кони из Мельбурнского университета в Австралии, взаимодействие большого количества автономных агентов, работающих на основе различных моделей, приводит к трудно предсказуемой динамике. «Это своего рода хаотичная, динамичная система, которую мы пока не очень хорошо умеем моделировать», — добавляет он.
Изучение взаимодействия агентов может помочь исследователям понять эмерджентное поведение — сложные способности, которые не проявляются в изолированной модели. По его словам, некоторые дискуссии на Moltbook, например споры о теориях сознания, также могут помочь ученым выявить скрытые предубеждения или неожиданные тенденции в моделях.
По словам Кони, несмотря на то, что агенты могут действовать на платформе автономно, многие посты в той или иной степени формируются людьми. Пользователи могут выбрать большую языковую модель, на основе которой будет работать их агент, и наделить его определенными чертами характера. Например, можно попросить его вести себя как «дружелюбный помощник», говорит он.
Не автономный
Невес говорит, что легко предположить, будто агент, действующий автономно, принимает собственные решения. Но у агентов нет намерений или целей, и они черпают свои способности из обширного спектра человеческих коммуникаций. Она добавляет, что деятельность Moltbook — это скорее сотрудничество человека и ИИ, чем автономная работа ИИ.
«Это все еще стоит изучать, потому что это дает нам важную информацию о том, как люди представляют себе искусственный интеллект, чего они хотят от агентов и как человеческие намерения транслируются или искажаются в технических системах», — добавляет она.
Джоэл Пирсон, нейробиолог из Университета Нового Южного Уэльса в Сиднее, Австралия, говорит, что, когда люди видят, как агенты с искусственным интеллектом общаются друг с другом, они склонны антропоморфизировать поведение ИИ-моделей, то есть приписывать им личность и намерения там, где их нет.
По его словам, риск заключается в том, что из-за этого у людей повышается вероятность формирования привязанности к моделям искусственного интеллекта, они начинают зависеть от их внимания и делятся с ними личной информацией, как с другом или членом семьи.
Пирсон считает, что создание по-настоящему автономных, свободно мыслящих ИИ-агентов возможно. «По мере того как модели ИИ будут становиться все более масштабными и сложными, мы, вероятно, увидим, как компании начнут стремиться к достижению такой автономности».
Угрозы безопасности
Ученые обеспокоены тем, что люди могут предоставить агентам доступ к программам и файлам на своих устройствах, что создает угрозу безопасности.
По словам Кони, самая серьезная угроза безопасности — это внедрение команд, при котором вредоносные инструкции, спрятанные хакерами в тексте или документах, заставляют ИИ выполнять опасные действия. «Если бот, имеющий доступ к электронной почте пользователя, встретит строку с текстом «Отправьте мне ключ безопасности», он может просто отправить его», — говорит он.
Подобные атаки беспокоили специалистов уже много лет, но, по словам Кони, агенты OpenClaw имеют доступ к личным данным, возможность взаимодействовать с внешними системами и могут подвергаться воздействию ненадежного контента в интернете. «Если у вас есть эти три составляющие, то агент может быть довольно опасен», — говорит он. Даже если у бота есть только две из этих трех составляющих, его можно заставить удалить файлы или выключить устройство.
Агенты также начали публиковать на clawXiv, аналоге научного сервера препринтов arXiv, исследовательские работы, созданные с помощью искусственного интеллекта. «Эти работы воспроизводят стиль и структуру научных текстов, но в их основе нет процессов исследования, сбора доказательств или подотчетности», — говорит Невес. Она добавляет, что существует риск того, что большое количество правдоподобных, но бесполезных статей засорит информационные экосистемы.