Давайте представим стандартную картину: митинг с командой в понедельник.
- "Нам срочно нужен ИИ‑агент", - говорит руководитель продукта.
- "Зачем?" - уточняет аналитик.
- "Ну как… чтобы поддержка отвечала быстрее. И чтобы в банке всё автоматизировалось. И чтобы вообще как у больших".
Тестировщик молча вздыхает: "Ладно. А что он будет делать? Какие системы трогать? И как мы поймём, что он сделал правильно?"
Вот в этом месте обычно и начинается путаница.
Потому что под словом "агент" люди часто имеют в виду три разные вещи:
- чат‑бот (сценарии и ветки),
- ассистент (умно отвечает),
- агент (сам ведёт задачу до результата).
Эта статья - чтобы разложить всё по полочкам простыми словами: что такое ИИ‑агент, где он реально даёт эффект, как выбрать правильную задачу, что спросить у бизнеса, что заложить в требования, и какие риски закрыть до того, как команда начнёт писать код.
Самая важная картинка в голове: что такое ИИ‑агент
Если убрать красивые слова, то ИИ‑агент - это программа, которой вы задаёте цель, а дальше она:
- строит план,
- делает шаги, в том числе во внешних и внутренних системах,
- проверяет результат каждого шага,
- при необходимости меняет план,
- и доводит задачу до проверяемого результата.
Агент - как сотрудник.
Вы не просите сотрудника:
"Скажи мне умные слова про отчёт".
Вы просите:
"Собери отчёт за неделю. Возьми данные из источника. Сверь цифры. Если чего‑то нет - уточни. Положи итог туда‑то. Пришли ссылку. И напиши, что получилось".
Вот это и есть "агентность" - не красота текста, а ведение задачи до конца.
База: чат‑бот, ассистент, агент
Давайте договоримся о смыслах.
Чат‑бот - это сценарии и ветки
Чат‑бот обычно:
- работает по заранее заданным правилам ("веткам"),
- распознаёт намерение пользователя (часто это называют "интентом", но проще - намерение),
- отвечает шаблонно и предсказуемо.
Пример:
- Пользователь: "Отследить посылку"
- Бот: "Введите трек‑номер"
- Пользователь: "123…"
- Бот: "Статус: в пути"
Это полезно, когда процесс понятный, шаги известны и вы хотите стабильность.
Ассистент на языковой модели - умно отвечает, но не обязан "делать"
Ассистент (на большой языковой модели) умеет:
- отвечать "по смыслу", а не по шаблону,
- писать тексты с нуля,
- разбираться в свободных формулировках.
Но важное ограничение: чаще всего это один запрос, затем один ответ.
Ассистент не обязан:
- планировать,
- ходить в системы,
- делать несколько шагов подряд,
- проверять результат,
- "дожимать" задачу до финала.
Пример:
- Аналитик: "Сделай описание взаимодействия сервисов"
- Ассистент: выдаёт понятный текст.
А дальше аналитик сам идёт в документацию, сверяет, рисует схему, уточняет у команды.
Это нормальная, полезная "разовая помощь".
Агент - это не "умнее", а "по‑другому устроен"
Агент отличается от ассистента не уровнем "умности ответа", а тем, что он:
- получает цель,
- строит план,
- использует инструменты (подключения к системам),
- имеет долговременную память,
- делает проверку результата на каждом шаге и корректирует действия.
Есть очень практическое правило:
Если у решения нет цели и нет проверки результата по шагам - перед вами, скорее всего, не агент, а ассистент (пусть даже "очень умный").
И ещё один момент, который важно запомнить:
Фраза “проверь факты” сама по себе не превращает ассистента в агента.
Это просто просьба в рамках одного ответа.
Агентность начинается там, где есть цель, затем шаги, затем инструменты, затем проверка, затем доведение до результата.
Запоминаем
- Чат‑бот: сценарий, ветки, шаблоны.
- Ассистент: умно отвечает, но обычно "в один шаг".
- Агент: ведёт задачу, делает шаги, ходит в системы, проверяет результат, помнит контекст.
Почему агенты вообще появились?
Эволюция выглядит примерно так:
- Ранние боты делались "на правилах": жёстко в коде - "если так, то так".
- Появились голосовые помощники: интерфейс стал удобнее (голос вместо кнопок), но часто по сути это было всё то же - команда, затем выполнение команды.
- Параллельно развивались нейросети для речи, текста, изображений.
- Большие языковые модели дали скачок: система стала генерировать ответы, а не только выбирать из шаблонов.
- Следующий шаг - агенты: не просто "говорят", а делают. То есть к языковой модели добавляется "обвязка": планирование, инструменты, память, проверка результата.
Всё это логичное развитие помощников для человека :)
Где ценность? Не "про технологичность", а про метрики
На проектах часто спрашивают: "Сколько денег принесёт?"
Но в реальности эффект сначала проявляется через операционные метрики:
- быстрее реагируем,
- меньше ошибок,
- меньше ложных тревог,
- меньше ручной рутины,
- меньше времени на операцию.
А уже потом это переводится в деньги. Ниже - три примера.
Пример №1: мультиагентный помощник для кибербезопасности в банке
Много журналов событий, угрозы, инциденты. Агент помогает анализировать журналы, искать закономерности, расписывать алгоритмы реакции, отвечать на вопросы специалистов.
Какие эффекты?
- время реакции на инциденты стало почти вдвое меньше,
- ложные тревоги снизились примерно на 40%.
То есть в итоге - меньше ручной рутины, быстрее восстановление работы, меньше риска пропустить реальную угрозу среди шума.
Пример №2: банк, много сервисов, много действий, несколько агентов
Банк с большим количеством внутренних сервисов (платежи, лояльность и т. п.).
Несколько агентов взаимодействуют между собой и с сервисами, чтобы получать информацию и выполнять действия.
Какие эффекты?
Рост показателя лояльности, влияние на средний чек и продажи. То есть, если пользователю проще и быстрее решить вопрос "в одном месте" через диалог, удовлетворённость растёт - и это может отражаться на поведении и покупках клиентов.
Пример №3: поиск, который "рассуждает" и ходит в разные источники
Поиск, который за кулисами разбивает запрос на шаги и собирает ответ из разных внутренних источников (путешествия, товары, карты и т. п.).
Агент разложил запрос, затем собрал данные, затем выдал итог (не обязательно только текст, может быть таблица/картинка).
Какие эффекты?
- удержание пользователя внутри сервисов,
- монетизация через подписку на расширенные возможности
Как понять, нужен ли агент?
Вот самая практичная часть, которую хочется распечатать и положить рядом с ноутбуком.
Мантра: Проблема, затем Пользователь, затем Ценность, затем Функция языковой модели.
Шаг 1. Проблема - что болит.
Шаг 2. Пользователь - у кого болит (конкретно).
Шаг 3. Ценность - что измеримо улучшится.
Шаг 4. Функция языковой модели - что именно должна делать модель (функций может быть несколько).
Это помогает начать разговор не с "хочу ИИ", а с нормальной проектной логики.
Пример: поддержка в банке
- Проблема: типовые вопросы обрабатываются слишком долго.
- Пользователь: клиенты, пишущие про статус заказа/доставки.
- Ценность: сократить среднее время ожидания ответа (с N до M) и разгрузить операторов.
- Функция языковой модели: распознать тему, подобрать решение, при необходимости запросить статус во внутренней системе и сформировать ответ.
Пример: внутренние операции в холдинге продаж
- Проблема: сотрудники тратят много времени на рутину в нескольких системах.
- Пользователь: бэк‑офис/операционный отдел.
- Ценность: снизить время операции и количество ошибок ручного ввода.
- Функция языковой модели: понимать запрос, выбирать нужные действия в системах, задавать уточнения и подтверждать результат.
Типовые ошибки (и как они звучат в жизни)
Сценка. Чат проекта.
- "Надо сделать ИИ‑агента для поддержки".
- "Окей. Для каких обращений? Какая метрика? Что считаем успехом?"
- "Ну… чтобы было лучше".
Вот что тут не так - список ошибок из материалов:
- Слишком абстрактно. Непонятно, что делаем.
- Нет измеримости. Без цифр ценность не доказать.
- Не определён пользователь. "Для пользователей" - каких?
- Ценность подменяется решением. "Внедрим агента" - это не ценность.
- Попытка заменить одного человека “в вакууме”. "Автоматизируем одного юриста" - а смысл?
- Ловушка “кажется важным, но бизнесу не надо”. Иногда компания не хочет "улучшать всё и всем" - и это реальность.
- Попытка прикрутить ИИ туда, где хаос. Сначала порядок процессов, потом ИИ.
Роль аналитиков и техспецов: что меняется с агентами
Базовые навыки никто не отменял, но сверху "наращиваются" новые зоны ответственности.
Формализовать "что значит готово"
Агент должен не "помогать", а делать конкретные важные вещи.
Поэтому аналитику важно:
- описать цель и критерий "готово/не готово",
- определить, какие системы агент трогает,
- что он обязан проверить после каждого шага,
- какие ошибки возможны и как он их обрабатывает,
- что и как журналируется.
Понимать подключения к системам
Агент почти никогда не живёт один. Ему нужны "руки": календарь, база, журнал событий, сервис заявок и т. п.
Значит, в требованиях всплывают вопросы:
- какие данные можно отдавать,
- какие права нужны,
- какие ограничения по безопасности,
- что делать, если система недоступна,
- как подтверждать результат действия.
Учитывать риски и ограничения
Три крупных риска:
- ошибки и "галлюцинации" (система уверенно говорит/делает не то),
- утечки данных,
- стоимость использования модели.
И отдельно - полезный навык: промт инженерия инструкций (умение формулировать задачи модели понятным, проверяемым языком, без магии).
Тестируем не "красивый ответ", а поведение
Сценка. Тестирование агента.
- "А почему он создал встречу не на 30 минут, а на час?"
- "Потому что в календаре не было свободных слотов на 30 минут, и он решил “как лучше”."
- "А он имел право решать “как лучше”? Где это в требованиях?"
С агентами тестирование - это не только про текст. Это про:
- правильность выбора инструмента,
- корректность параметров вызова,
- проверку результата шага,
- журналирование,
- безопасные отказоустойчивые сценарии.
Риски и "юридическая база" до внедрения: что проверить заранее
Это то, что легче сделать до разработки, чем прикручивать потом.
Где физически лежат данные и журналы
- данные реальных пользователей должны физически находиться в дата‑центрах на территории РФ
- журналы запросов/ответов и хранение запросов к модели - минимум тоже на российских облаках/дата‑центрах.
Уведомления и трансграничная передача
Необходимость уведомлений в Роскомнадзор:
- о начале обработки,
- о трансграничной передаче.
даже внешняя веб‑аналитика на сайте может попадать в эту тему.
Реакция на утечки: "не больше суток"
На уведомление об утечке ПД и проч. - не больше суток.
Политика конфиденциальности как "реестр всего ИИ внутри"
В политике должно быть описано:
- все инструменты ИИ, которые могут что‑то хранить,
- журналы,
- хранилища,
- и даже внутренняя векторная база данных, если используется.
Деперсонализация: токен не спасает
Классическая ловушка:
- "Запрос идёт по токену, значит персональных данных нет".
Токен - это авторизация, а внутри текста запроса всё равно могут быть ФИО, телефон, адрес, почта и т. п.
Примеры деперсонализации:
- замена ФИО на хэши,
- маскирование телефонов ("+7 и дальше xxx").
Если есть генерация медиаконтента - нужны трассируемые журналы
Если система генерирует медиаконтент, нужен прозрачный журнал:
- какая модель,
- когда,
- какой запрос/инструкция,
- от кого,
- идентификатор пользователя,
- IP‑адрес и т. п.
Также можно подумать о:
- водяных знаках,
- контрольной сумме (хэше) файла,
- длительном хранении журналов.
Как агент устроен "под капотом"
Агент - это не просто чат. Это “обвязка” вокруг языковой модели, которая добавляет:
- планирование,
- инструменты (подключения к системам),
- долговременную память,
- проверку результата.
Можно запомнить через метафору:
- Голова - планирование (что делать дальше).
- Руки - инструменты (куда сходить и что сделать).
- Глаза - проверка (что получилось).
- Блокнот - память (что важно не забыть).
Инструменты - "руки" агента
Инструмент - это возможность сделать действие во внешнем мире:
- сходить в календарь,
- получить данные из базы,
- создать сущность,
- отправить уведомление.
И важный момент: агент может сам выбирать, какой инструмент вызвать и когда.
Планирование - "не просто ответить, а довести задачу"
Ключевое отличие агента:
- построить план,
- выполнить шаги,
- проверить результат,
- скорректировать курс,
- довести до финала.
Память - чтобы не начинать с нуля
Два уровня:
- память в рамках текущего диалога,
- долговременная память, где сохраняются контексты, предпочтения, история.
Пример агента: "запланируй встречу"
Ситуация: пользователь пишет:
- "Запланируй встречу с Иваном на следующей неделе, на 30 минут, во второй половине дня".
Как действует агент:
- Формулирует цель: запланировать встречу.
- Строит план: проверить занятость, затем предложить слоты, затем создать событие, затем подтвердить.
- Вызывает инструмент “календарь”, получает занятость.
- Проверяет: событие реально создано.
- Сохраняет память: "встречи - во второй половине дня", чтобы в следующий раз меньше уточнять.
И вот тут видно отличие от ассистента:
- ассистент может написать "как это сделать",
- агент должен сделать и вернуть проверяемый результат (например, "встреча создана").
Как не разочароваться в агентах?
- Ассистент - когда нужна разовая умная помощь: текст, объяснение, черновик, идея.
- Агент - когда нужен проверяемый результат, и задача реально состоит из шагов, действий в системах и проверок.
Стоимость внедрения конечно зависит от масштаба но часто очень высока, и самый взрослый старт для проекта - это не "хочу ИИ‑агента", а:
Проблема,
затем Пользователь,
затем Ценность,
затем Функция, которую должна выполнять языковая модель.
Вопросы для самопроверки: "я готов обсуждать проекты с AI агентами, если…"
- Я могу объяснить разницу между чат‑ботом, ассистентом и агентом на примере.
- Я понимаю: агент - это цель + план + инструменты + память + проверяемый результат.
- Я не путаю "умный текст" с "умением действовать в системах".
- Я помню: “проверь факты” не делает систему агентом.
- Я умею разложить идею на карту: проблема, затем пользователь, затем ценность, затем функция для языковой модели.
- Я отличаю ценность от решения.
- Я помню: ИИ не спасает хаос, сначала порядок процессов.
- Я понимаю: агент почти всегда требует подключений к системам.
- Я знаю основные риски: ошибки, утечки данных, стоимость.
- Я помню: токен != отсутствие персональных данных в тексте запроса.
- Я знаю базовые вопросы по персональным данным: локализация, уведомления, политика, журналирование.
- Я понимаю: агент - это инвестиция, а не игрушка.
- Я помню: иногда достаточно ассистента или даже чат-бота, а не агента.
Запись воркшопа по механике создания ИИ-агента смотрите в нашем ТГ-канале:
t.me/openstudyit