Найти в Дзене

AI‑агенты: от истоков до сегодняшних трендов

Искусственный интеллект все чаще выходит за рамки просто чат-ботов и превращается в AI-агентов - программных "ассистентов", способных самостоятельно выполнять задачи. Системные и бизнес-аналитики, даже новички в IT, все чаще сталкиваются с этим понятием. Давайте разберемся, как возникла идея AI-агентов, через какие этапы она прошла и что происходит сейчас в мире и в России. Диалог с программой ELIZA (1966) - одним из первых чат-ботов, имитировавших ответы психотерапевта. Многие пользователи были уверены, что компьютер "понимает" их. Первые попытки создать "разумные" программы для общения уходят в 1960-е годы. В 1966 г. в MIT был разработан чат-бот ELIZA, который пародировал речь психотерапевта. Программа переиначивала фразы собеседника вопросами и репликами - и это создавало иллюзию понимания. Некоторые пользователи даже приписывали ELIZA настоящий интеллект, хотя на самом деле алгоритм был очень простым. Тем не менее, эффект ELIZA показал, что люди готовы воспринимать машину как мысля
Оглавление

Искусственный интеллект все чаще выходит за рамки просто чат-ботов и превращается в AI-агентов - программных "ассистентов", способных самостоятельно выполнять задачи. Системные и бизнес-аналитики, даже новички в IT, все чаще сталкиваются с этим понятием. Давайте разберемся, как возникла идея AI-агентов, через какие этапы она прошла и что происходит сейчас в мире и в России.

От чат-ботов к ассистентам: эволюция ИИ-систем

Диалог с программой ELIZA (1966) - одним из первых чат-ботов, имитировавших ответы психотерапевта. Многие пользователи были уверены, что компьютер "понимает" их.

Первые попытки создать "разумные" программы для общения уходят в 1960-е годы. В 1966 г. в MIT был разработан чат-бот ELIZA, который пародировал речь психотерапевта. Программа переиначивала фразы собеседника вопросами и репликами - и это создавало иллюзию понимания. Некоторые пользователи даже приписывали ELIZA настоящий интеллект, хотя на самом деле алгоритм был очень простым. Тем не менее, эффект ELIZA показал, что люди готовы воспринимать машину как мыслящего собеседника.

В последующие десятилетия концепция интеллектуальных агентов развивалась в научной среде: появились эксперты-системы, системы с правилами и т.д. Однако широкому кругу пользователей ИИ-ассистенты стали знакомы много позже, с приходом голосовых помощников. В 2011 году компания Apple представила миру голосового помощника Siri вместе с iPhone 4S. Это был прорыв - смартфон научился понимать команды на естественном языке и выполнять простые поручения. Следом, в 2014 году, Amazon выпустил умную колонку Echo с ассистентом Alexa, открыв эру разговорных устройств для дома. Голосовые ассистенты от Google и Яндекса (например, "Алиса") тоже стали массовым явлением к концу 2010-х. Они умели отвечать на вопросы, ставить будильник, включать музыку - но их интеллект был узко запрограммированным.

Настоящая же революция началась в 2022-2023 годах, с развитием больших языковых моделей. Появление чат-бота ChatGPT от OpenAI в конце 2022 года продемонстрировало качественно новый уровень понимания и генерации текста. Всего за два месяца аудитория ChatGPT достигла 100 миллионов пользователей - по данным Reuters, это сделало его самым быстрорастущим потребительским приложением в истории. (Для сравнения, TikTok потребовалось ~9 месяцев, чтобы набрать столько же пользователей.) Уже в первые дни ChatGPT привлёк более миллиона человек, пораженных тем, насколько связно и "по-человечески" он отвечает на сложные вопросы. Конечно, он тоже ошибался и мог "галлюцинировать" факты, но скачок в уровне общения был очевиден.

Так сложились все условия для нового тренда - перехода от просто ассистентов, отвечающих на запросы, к автономным AI-агентам, которые не только говорят, но и действуют.
-2

Большие модели и автономные агенты: в чем прорыв?

Что отличает AI-агента от традиционного бота? Прежде всего, способность самостоятельно ставить и достигать цель, разбивая ее на шаги. Если ранние ассистенты ждали прямых команд, то современные агенты могут сами решать, какие действия предпринять, чтобы выполнить задачу пользователя. Это стало возможным благодаря сочетанию нескольких достижений:

  • Большие языковые модели (LLM) - такие как GPT-3.5 и GPT-4 - научились не только отвечать, но и рассуждать, делать логические выводы. Исследователи предложили подход ReAct (Reason + Act) - когда модель в диалоге сначала выводит свои мысли, а потом указывает действие (например, "поискать в интернете"). Такой подход к 2022 г. показал себя эффективным и заложил основу для агентов, умеющих взаимодействовать с внешним миром.
  • Интеграция с инструментами. OpenAI в 2023 г. добавила в ChatGPT плагины, позволяющие боту вызывать внешние сервисы - от веб-браузера до WolframAlpha для расчетов. Появились фреймворки (например, LangChain), которые облегчили "обучение" модели пользоваться API, базами знаний, памятью. По сути, LLM стала центром, которая может по запросу вызвать нужный Tool (инструмент) и получить результат. Это приблизило нас к идее универсального агента, умеющего и думать, и действовать.
  • Итеративное планирование. Весной 2023 г. сразу несколько открытых проектов - AutoGPT, BabyAGI, AgentGPT - взорвали техносообщество идеей, что можно зациклить LLM саму на себя. Вы даете ей цель, а она сама генерирует план, выполняет шаг, оценивает результат, корректирует план и так далее, пока цель не будет достигнута. Такие автономные агенты в исполнении GPT-4 произвели фурор. Репозиторий AutoGPT на GitHub набрал 100 000 звёзд всего за несколько недель - беспрецедентный успех для AI-проекта (фактически, второй после самого GPT). Это породило волну энтузиазма: десятки схожих проектов, вариаций BabyAGI, и общее ощущение, что мы на пороге появления "ИИ, который делает работу за человека".

Однако, будучи строгими и объективными, отметим: во многом ажиотаж 2023 года оказался избыточным. Со временем выяснилось, что многие AutoGPT-подобные агенты зацикливаются или выполняют тривиальные действия по кругу. По сути, это были обёртки вокруг LLM, позволяющие ей вызывать инструменты и помнить контекст, но не дающие настоящего "сознания". К концу 2023 года хайп немного улегся, и началась более практичная работа: лучшие идеи объединили в удобные библиотеки. Например, тот же LangChain стал популярной средой для создания ботов с памятью и инструментами. Появились и новые разработки: Microsoft Autogen - платформа для многоагентных систем, где несколько моделей могут переписываться друг с другом; CrewAI - легковесный фреймворк, позволяющий настроить "команду агентов" с разными ролями.

Иными словами, сейчас возникло целое направление - agentic AI, агентный ИИ. Его суть: использовать мощь больших моделей, окружив их вспомогательной инфраструктурой (контуры планирования, подключения к инструментам, долговременная память в векторных базах данных и пр.). В результате получаются системы, которые выглядят как автономные исполнители. Они способны получать высокоуровневые поручения (например, "составь мне подборку потенциальных клиентов из таких-то компаний и разошли им письма"), и далее большая часть работы происходит без участия человека.

-3

Где применяются AI-агенты уже сегодня

AI-агенты еще находятся в стадии экспериментов, но уже просматриваются перспективные области применения:

  • Поддержка пользователей и клиентов. Одна из первых ниш - автоматизация поддержки. Вместо простого чат-бота со скриптом компания может внедрить агента, который не только отвечает на вопросы, но и сам обращается к внутренним базам знаний, CRM-системам, выполняет необходимые действия. Например, виртуальный помощник по кибербезопасности от Сбербанка заявлен как экспертного уровня консультант: он сможет анализировать обращения, выявлять признаки фишинга, советовать пользователям и даже генерировать документы и рекомендации для бизнеса по улучшению защиты. В Центре кибербезопасности Сбера уже испытывается внутренняя мультиагентная система, которая в реальном времени мониторит угрозы и реагирует на инциденты.

- Личные цифровые ассистенты. На Западе обсуждается идея агентов, которые могут выступать вашими персональными помощниками - например, организовать ваше расписание, забронировать билеты, заказать товары, ориентируясь на ваши предпочтения. В России аналогичные идеи воплощает, к примеру, Тинькофф. В 2024 году банк запустил сразу шесть AI-ассистентов, назвав это "вселенной ассистентов". Каждый из них специализируется на своей сфере:

- Финансовый ассистент - анализирует траты и дает советы по управлению деньгами;

- Инвест-ассистент - помогает с инвестициями, объясняет сложные темы, экономит время на анализе бумаг;

- Шоппинг-ассистент - подбирает товары с учетом индивидуальных потребностей (можно спросить: "посоветуй крем для сухой кожи рук зимой" и он найдет оптимальный вариант);

- Тревел-ассистент - планирует путешествия, советует маршруты, находит билеты и жилье;

- Джуниор-ассистент - общается с детьми, развлекает и даже обучает (от финансовой грамотности до помощи с учебной программой);

- Секретарь - отвечает на звонки вместо клиента, может в шутливой форме говорить с телефонными спамерами, записывает разговор и делает его расшифровку.

  • Все эти помощники работают на базе собственных больших языковых моделей, обученных на задачах конкретной области. Такой подход узкой специализации выбрали сознательно: в "Тинькофф" заявляют, что их ассистенты лучше решают задачи в своих нишах, чем универсальные модели. По словам директора по ИИ банка, детский "Джуниор-ассистент" дает корректные ответы на 20% чаще, чем ChatGPT. То есть, узконастроенный агент может превзойти "общий интеллект" в конкретном приложении - и приносить реальную пользу клиентам.
  • Бизнес-процессы и аналитика. AI-агенты начинают применять для помощи специалистам в офисных задачах. Например, агент для отдела продаж может сам отслеживать лидов, рассылать первичные письма и напоминания. Агент для DevOps-инженера - мониторить систему и в случае сбоя самостоятельно перезапускать службы или собирать логи для анализа. На Западе появляются стартапы типа Lindy, предлагающие каждому деловому человеку персонального AI-агента-секретаря, который может планировать встречи, отвечать на почту, делать выписки из документов и т.д. В таких случаях агент выступает как бы "расширением" сотрудника, беря на себя рутинные и технические задачи.
  • Интеграции и ИТ-архитектура. Интересно, что спрос на AI-агентов появляется даже в традиционных IT-компаниях. Показательный пример - недавняя вакансия системного аналитика в команду AI-агентов от компании 2ГИС (занимается картографическими сервисами). В описании роли говорится, что аналитик должен продумывать интеграцию компонентов системы (backend, frontend, AI-модели, внешние API), моделировать пользовательские сценарии взаимодействия с AI-ассистентами, учитывать риски производительности и архитектуры, разрабатывать техническую документацию и т.д. Т.е. даже у компаний, далеких от лабораторий ИИ, возникают проекты по внедрению AI-моделей в свои продукты, через механизмы агентов. Аналитики этим проектам нужны, чтобы связать бизнес-задачу и сложную "начинку" из моделей и сервисов.

Конечно, перечисленные области - лишь начало. Многие компании экспериментируют с агентами в HR (например, для первичного интервью кандидатов), в обучении (репетиторы на базе ИИ), в здравоохранении (персональные помощники для врачей и пациентов) и других сферах. Везде цель одна: автоматизировать сложные коммуникационные задачи, где обычные скрипты или программы не справляются, а человеку тратить время неэффективно.

-4

Что происходит в России: технологии и проекты

Смартфон с приложением ассистентов от "Тинькофф" - банк запустил сразу шесть ИИ-помощников для разных жизненных ситуаций (финансы, покупки, путешествия и др.) в 2024 г..

Мировой тренд автономных агентов не обошел стороной и Россию. Уже упомянутые проекты Сбера и Тинькофф - яркие примеры. Что еще примечательно на нашем рынке?

Во-первых, отечественные технологические гиганты развивают собственные большие языковые модели, чтобы снизить зависимость от зарубежных решений. Сбербанк еще в 2021-22 гг. выпустил семейство моделей SberGPT и мультимодальную модель GigaChat. В 2023 г. "Сбертех" анонсировал, что их новая модель сравнима по возможностям с GPT-3.5, и будет использоваться в различных сервисах экосистемы Сбера. Именно на таких моделях строятся упомянутые продукты - от мультиагента SOC (Security Operations Center) до грядущего публичного помощника по кибербезопасности.

Яндекс тоже не стоит в стороне. В 2023-24 гг. компания глубоко интегрировала технологии больших моделей в своего голосового ассистента "Алиса". Весной 2025 г. Яндекс объявил о крупнейшем обновлении "Алисы" за 7 лет, добавив ей режим так называемого "рассуждения". Теперь Яндекс.Поиск умеет отвечать на сложные запросы развернуто и с генерацией контента. По сути, Алиса переехала в поисковую строку. Если раньше при сложном запросе вы получали список ссылок, то теперь можно увидеть готовый структурированный ответ - маленькую статью с подзаголовками, картинками, видео и ссылками на источники. Например, запрос "какие бывают морские узлы" выдаст целую справку с описанием видов узлов и схемами вязки. Этот функционал стал возможен именно благодаря внедрению LLM: "Алиса" теперь не просто ищет по заранее заготовленным сниппетам, а генерирует ответ сама, привлекая данные из интернета. Яндекс заявляет, что в режиме "Рассуждений" ассистент тратит больше ресурсов и источников, может даже представить ответ в виде таблицы для удобства. Также в поиске появился и генератор изображений (через связку с другой нейросетью), доступный пользователям Pro-версии Алисы.

Подобные шаги Яндекса показывают: грань между поиском, голосовым помощником и AI-агентом стирается. В ближайшем будущем ваш поисковый запрос может обрабатываться целой командой из ИИ-моделей, которые обсудят между собой лучшие варианты ответа, сверятся с базами знаний и выдадут вам готовое решение - вместо списка из 10 ссылок.

Кроме топ-игроков, в России заметна активность стартапов в области AI. Появляются компании, предлагающие бизнесу решения "под ключ" на базе агентов - от чат-ботов нового поколения для e-commerce до аналитических систем, которые автоматически пишут отчеты, собирая данные из разных источников. Пока доля расходов на ИИ в РФ скромна (по оценке, всего 0,2% мировых), но потенциал оценивался как колоссальный - эффект от внедрения ИИ к 2028 году может достичь 4,2-6,9 трлн руб., до 4% ВВП. Государство также стимулирует тренд: в 2022 г. на самом высоком уровне было поручено обновить нацстратегию развития ИИ до 2030 г. и интегрировать ИИ во все отрасли экономики. В 2023 г. вышла федеральная концепция регулирования ИИ-технологий, где отдельно оговариваются вопросы сертификации и ответственности AI-систем. Пока прямых законов об AI-агентах нет, но общие законы - например, ФЗ-152 о персональных данных - уже сейчас влияют на разработки (например, требование хранить данные россиян внутри страны стимулирует использовать отечественные модели вместо западных API).

Таким образом, российский ландшафт AI-агентов формируется на стыке мировых технологий и локальных условий.

С одной стороны, наши компании используют те же достижения (LLM, открытые фреймворки), что и весь мир. С другой - ориентируются на свои задачи (русский язык, интеграция с госуслугами, безопасность и импортозамещение). Можно ожидать, что в ближайшие год-два мы увидим еще больше новостей наподобие "Сбер запустил того-то", "Яндекс обучил этому-то", а вакансии по AI-агентам из единичных превратятся в привычные.

-5

Риски и перспективы

Как и любая новая технология, AI-агенты - это не только возможности, но и риски с вызовами. Главные из них:

  • Достоверность и "галлюцинации". Большие языковые модели склонны придумывать правдоподобно звучащие, но ложные ответы. Агент на их основе может уверенно дать совет, который на проверку ошибочен. В критических сферах (медицина, финансы) это особенно опасно. Разработчики вынуждены внедрять механизмы фильтрации ответов, проверки фактов и ограничения полномочий агента. Появилось понятие "конвейера безопасности" (AI guardrails) - когда вокруг модели ставят "рамки", не дающие ей выйти за границы допустимого. Например, Сбер заявил, что для их ассистента по безопасности будет предусмотрена "красная кнопка" - мгновенная остановка, если что-то пойдет не так.
  • Конфиденциальность данных. Автономный агент зачастую должен иметь доступ к вашим данным: почте, документам, аккаунтам. Это ставит вопрос: а не утечет ли все это куда-нибудь? Использование зарубежных моделей требует загрузки данных на их сервера, что не всегда приемлемо. Именно по этой причине крупные компании иногда запрещают своим сотрудникам пользоваться публичным ChatGPT для рабочих задач - опасаются, что внутренняя информация попадет в чужую обучающую выборку. В России добавляется требование закона о персональных данных - sensitive-информация должна храниться и обрабатываться на российских серверах. Значит, агентам для банков или госорганов нужна локальная инфраструктура (свои модели, свои серверы). Это сдерживает скорость внедрения, но стимулирует создавать отечественные аналоги западных технологий.
  • Интеграция в бизнес-процессы. Чтобы агент действительно приносил пользу, его нужно не просто обучить - его надо включить в существующую архитектуру IT-систем. А это зачастую сложнее, чем сделать прототип в лаборатории. Необходимо, чтобы результаты работы агента подхватывались другими системами, чтобы были понятные точки входа (API) для запуска агента, чтобы учитывались ошибки. Системные аналитики в проектах по AI-агентам становятся ключевыми фигурами - на них ложится задача описать, как агент впишется в ландшафт, что будет делать при сбоях, какие у него будут границы ответственности. Всплывают и новые вопросы: как тестировать агента (его поведение не детерминировано на 100%)? Как обеспечить воспроизводимость результатов, логирование всего, что агент делал (так называемая observability, наблюдаемость работы AI)? Тут возникают целые новые направления - например, инструменты вроде LangSmith и Traceloop для отслеживания "мыслительного процесса" LLM в продакшене, метрики успешности агента (сколько % задач решил правильно, сколько раз обратился к инструментам и пр.).
  • Правовые аспекты. Пока в РФ нет отдельного закона об ИИ, но активно обсуждается. Например, весной 2023-го сообщалось о разработке закона об ответственности за deepfake (генерацию дипфейков). AI-агент, принявший неверное решение, - кто будет отвечать? Разработчики, владелец системы или сам пользователь, нажавший кнопку "Запустить агента"? В мире были прецеденты, когда компании отказывались от автономности именно из-за неясности с ответственностью. Вероятно, сначала в корпоративных регламентах будут появляться внутренние правила (как и что согласовывать перед использованием AI), а затем уже и государство внесет ясность. В частности, регулирующие органы указывают на необходимость маркировать AI-контент (чтобы человек понимал, что текст или изображение созданы нейросетью), соблюдать законы о защите данных, не допускать дискриминации и т.п.

Как видим, AI-агенты - это не магия, а технология со своими недостатками. Но, несмотря на трудности, интерес к ним продолжает расти. Почему? Потому что потенциальная выгода огромна. В исследовании консалтинговой компании "Яков и партнеры" (бывш. McKinsey СНГ) отмечено: 94% компаний, начавших использовать ИИ для бизнес-задач, говорят о сокращении издержек. Автономные агенты как раз и нацелены на сокращение издержек там, где раньше требовалось участие человека - а теперь модель может решить сама. Условно говоря, если AI-агент будет хотя бы в половине случаев сам закрывать проблему клиента, не привлекая сотрудника колл-центра, это уже экономия десятков миллионов рублей в масштабах года. А если он еще и повысит удовлетворенность (решил проблему мгновенно в 3 часа ночи) - это непрямой, но ценнейший эффект.

-6

Что дальше? Некоторые энтузиасты прогнозируют, что через несколько лет взаимодействие с AI-агентами станет так же привычно, как сегодня использование мобильных приложений. Возможно, у каждого из нас будет свой "умный помощник" - в телефоне или в облаке - который знает наши предпочтения и в фоновом режиме делает массу дел. С другой стороны, скептики считают, что в ближайшее время люди все-таки не доверят алгоритмам полную автономию и будут держать их "на поводке".

Скорее всего, истина посередине: человек + AI-агент будут работать в тандеме. Агент возьмет на себя рутину, предложит варианты, а человек проконтролирует и утвердит результат. Уже сейчас такое партнерство дает плоды - вспомним хотя бы программирование: разработчики, используя Copilot (автодополнение кода на базе ИИ), экономят массу времени. Аналогично и в аналитике: AI может подготовить черновик документации, собрать данные, проверить гипотезы, а аналитик уже вносит экспертные правки.

Мы живем в удивительное время. Идеи из научной фантастики - об интеллектуальных агентах, персональных Джарвисах (как в фильмах Marvel) - буквально на наших глазах превращаются в реальные прототипы. Да, пока они несовершенны, иногда ошибаются или выглядят игрушками. Но прогресс идет столь быстро, что через год-другой уровень "интеллекта" и автономности может удвоиться. Бизнес и системным аналитикам важно держать руку на пульсе: изучать новые возможности, экспериментировать с ними и в то же время трезво оценивать риски. AI-агенты - не панацея, но мощный новый инструмент.

Объективно анализируя их историю и текущее развитие, можно сделать вывод: у инструментов на базе AI-агентов большой потенциал, и грамотное их применение способно принести ощутимую пользу во многих сферах. Будем следить за трендом и, возможно, участвовать в его формировании.

Что думаете? Давайте обсудим в нашем комьюнити в ТГ-канале:

API. Архитектура. Веб-сервисы