Найти в Дзене
Social Mebia Systems

Почему полностью автономные AI-агенты — тупиковый путь?

Автономия — не самоцель

В последние годы индустрия больших языковых моделей (LLM) активно стремится к созданию полностью автономных AI-агентов — систем, которые могут самостоятельно воспринимать, рассуждать и действовать в реальном мире без участия человека. Принято считать, что чем выше автономность, тем совершеннее система: минимизация человеческого вмешательства воспринимается как безусловная ценность, а полная независимость — как идеал.

Однако группа китайских учёных во главе с Филипом С. Ю (Университет Иллинойса в Чикаго) и Ли Дунъюанем (Токийский университет) предлагает радикально иной подход: главная цель развития AI — не автономия, а эффективное сотрудничество человека и машины. Они называют эту парадигму LLM-HAS (Human-Agent System на базе LLM) и призывают сместить фокус исследований и внедрения с автономных систем на коллаборативные.

Ссылка на статью: A Call for Collaborative Intelligence: Why Human-Agent Systems Should Precede AI Autonomy (arXiv, 2025)

Почему полностью автономные агенты не работают?

1. Недостаток доверия, надёжности и безопасности
LLM-агенты склонны к «галлюцинациям» — генерации правдоподобных, но ложных ответов. Это подрывает доверие к автономным системам, особенно в критических сферах (медицина, финансы, инфраструктура), где ошибка может стоить очень дорого.

2. Слабая работа с неясными и сложными задачами
Автономные агенты плохо справляются с задачами, где цели нечетко сформулированы или динамически меняются. LLM не обладают человеческим здравым смыслом и часто неверно интерпретируют размытые инструкции, что приводит к ошибкам.

3. Юридические и этические риски
Автономные системы не являются субъектами права. В случае ошибки или ущерба сложно определить, кто несёт ответственность — разработчик, владелец или сама система? По мере роста возможностей агентов этот разрыв между «способностью» и «ответственностью» только увеличивается.

LLM-HAS: новая парадигма — человек и агент как партнёры

LLM-HAS (Human-Agent System на базе LLM) — это система, где человек и AI-агент работают вместе, а не по отдельности. Человек остаётся в контуре принятия решений: уточняет цели, даёт обратную связь, контролирует критические моменты. Агент, в свою очередь, усиливает возможности человека, но не подменяет его.

Преимущества LLM-HAS:

  • Доверие и надёжность: человек может вовремя скорректировать ошибку, проверить результат, предотвратить «галлюцинации».
  • Гибкость и адаптивность: человек помогает агенту разобраться с неясными задачами, уточняет цели, добавляет контекст.
  • Ясная ответственность: всегда можно определить, кто принимал ключевые решения, что важно для регулирования и этики.

Где это особенно важно?
Везде, где задачи сложны, цели меняются, а цена ошибки высока: научные исследования, медицина, финансы, разработка ПО, автономные системы, игры, диалоговые системы.

Ключевые вызовы и пути их решения

  1. Начальная настройка:
    Сегодня большинство исследований LLM-HAS всё ещё строятся вокруг агента, а человек выступает лишь как «корректор». Важно перейти к более сбалансированным моделям, где агент может не только слушать, но и активно помогать человеку, предлагать альтернативы, выявлять риски.
  2. Качество и разнообразие человеческих данных:
    Реальные пользователи очень разные, их обратная связь субъективна. Использование «псевдолюдей» (LLM, имитирующих человека) для обучения не отражает реального многообразия поведения. Необходимы качественные, разнообразные данные от настоящих людей.
  3. Модельная инженерия и обучение:
    Большинство LLM — это статические модели, не способные к постоянному обучению и адаптации. Для эффективного сотрудничества нужны механизмы lifelong learning, интеграция обратной связи и динамическая оптимизация.
  4. Безопасность и ответственность при внедрении:
    Внедрение LLM-HAS требует постоянного мониторинга, строгого контроля, учёта приватности и этики. Надёжная коллаборация невозможна без ответственного подхода к безопасности.
  5. Оценка эффективности:
    Существующие метрики оценивают только точность агента, игнорируя вклад и нагрузку на человека. Необходимы новые системы оценки, которые учитывают эффективность, качество взаимодействия, доверие, прозрачность, этику и пользовательский опыт.

Итог: будущее — за коллаборативным интеллектом

Авторы подчёркивают: будущее AI — не в полной автономии, а в эффективном, прозрачном и этичном сотрудничестве человека и машины. LLM-HAS — это путь к системам, которые не заменяют, а усиливают человека, делают его работу более продуктивной, безопасной и осмысленной.

Главный вызов для индустрии — научиться строить такие гибкие, адаптивные и ответственные системы, где человек и AI — настоящие партнёры, а не конкуренты.

Хотите создать уникальный и успешный продукт? СМС – ваш надежный партнер в мире инноваций! Закажи разработки ИИ-решений, LLM-чат-ботов, моделей генерации изображений и автоматизации бизнес-процессов у профессионалов.

ИИ сегодня — ваше конкурентное преимущество завтра!

Тел. +7 (985) 982-70-55

E-mail sms_systems@inbox.ru

Сайт https://www.smssystems.ru/razrabotka-ai/