Добавить в корзинуПозвонить
Найти в Дзене
AI как Система

Вы думаете, что у вас AI-система. На самом деле у вас неуправляемый процесс

Давайте без самообмана. Большинство компаний сегодня не внедряют AI-системы. Они собирают набор слабо связанных решений, которые выглядят убедительно ровно до первого серьёзного сбоя. Пока бот отвечает быстро, всем кажется, что всё работает.
Пока агент вытаскивает данные из CRM, это выглядит как прогресс.
Пока модель пишет нормальные ответы, команда считает, что AI уже встроен в процесс. Но это иллюзия. Настоящая проверка начинается не на демо и не на пилоте. Она начинается позже. Когда система уже влияет на реальные действия, реальные деньги и реальные обязательства. И вот тогда вскрывается вещь, о которой почти никто не хочет говорить вслух. AI в проде чаще всего ломается не потому, что модель глупая.
Он ломается потому, что никто не проектировал его как управляемую систему. Снаружи это выглядит как технологический стек.
Внутри это часто набор решений, которые держатся на доверии, интуиции команды и ручной подстраховке. На старте это незаметно. Потом становится дорогой проблемой. Как

Давайте без самообмана.

Большинство компаний сегодня не внедряют AI-системы. Они собирают набор слабо связанных решений, которые выглядят убедительно ровно до первого серьёзного сбоя.

Пока бот отвечает быстро, всем кажется, что всё работает.
Пока агент вытаскивает данные из CRM, это выглядит как прогресс.
Пока модель пишет нормальные ответы, команда считает, что AI уже встроен в процесс.

Но это иллюзия.

Настоящая проверка начинается не на демо и не на пилоте. Она начинается позже. Когда система уже влияет на реальные действия, реальные деньги и реальные обязательства.

И вот тогда вскрывается вещь, о которой почти никто не хочет говорить вслух.

AI в проде чаще всего ломается не потому, что модель глупая.
Он ломается потому, что никто не проектировал его как управляемую систему.

Снаружи это выглядит как технологический стек.
Внутри это часто набор решений, которые держатся на доверии, интуиции команды и ручной подстраховке.

На старте это незаметно. Потом становится дорогой проблемой.

Как это выглядит в реальности

Сценарий почти всегда один и тот же.

Компания запускает AI в какой-то понятной зоне. В продажах. В поддержке. В логистике. В обработке лидов. В документах. Внутри CRM. Где угодно.

Сначала всё выглядит отлично.

Система экономит время.
Ответы становятся быстрее.
Команда чувствует эффект.
Появляется ощущение, что проект удался.

Потом начинаются первые странности.

Бот начинает тормозить без очевидной причины.
Одинаковые по смыслу запросы дают разный результат.
После звонка или диалога система не ставит следующий логичный шаг.
Где-то она ведёт себя аккуратно, где-то начинает импровизировать.
Часть решений выглядит разумно, но никто не может объяснить, почему они были допустимы.

И в этот момент выясняется неприятная вещь.

Почти всё, что до этого называли AI-архитектурой, на деле было просто хорошо собранной демонстрацией.

Не системой.

Почему рынок продолжает смотреть не туда

Потому что рынок до сих пор влюблён в модель.

Все разговоры крутятся вокруг одного и того же.

Какая LLM лучше.
Какой контекст длиннее.
Какой RAG точнее.
Сколько агентов можно повесить на процесс.
Как дешевле маршрутизировать запросы.

Это интересные вопросы. Но почти всегда вторичные.

Потому что в реальной корпоративной среде самый важный вопрос другой.

Не что система умеет сделать.

А что ей вообще разрешено делать.

Вот здесь и проходит граница между игрушкой и инфраструктурой.

Пока AI воспринимается как умный инструмент, кажется, что главное это качество ответа. Но как только AI начинает принимать решения внутри живого процесса, качество ответа перестаёт быть единственным критерием.

С этого момента в игру входят вещи, которые модель сама по себе не решает.

Ограничения.
Допустимость.
Воспроизводимость.
Ответственность.
Контроль автономии.

И именно здесь большинство проектов начинают рассыпаться.

Где реально находится поломка

Не в модели.

Не в том, что она иногда ошибается.

Это слишком простое объяснение. И удобное. Оно позволяет думать, что проблему можно решить новой моделью, новым провайдером или ещё одним слоем “умной” обвязки.

Но поломка глубже.

Большинство AI-проектов строятся вокруг генерации. Сначала система что-то предлагает. Потом команда думает, как это проверить, ограничить, логировать и как-то вписать в процесс.

То есть логика перевёрнута.

Сначала появляется действие.
Потом появляется попытка его контролировать.

В зрелой системе должно быть наоборот.

Сначала определяется рамка допустимого.
Потом внутри этой рамки системе вообще разрешают действовать.

Разница выглядит теоретической только на бумаге. В проде она становится решающей.

Потому что если рамка не задана заранее, AI всегда начинает жить как более или менее убедительный источник непредсказуемости.

Пока всё идёт по знакомым сценариям, это терпимо.

Когда начинается реальная сложность, всё рушится.

Почему это становится особенно заметно в enterprise

Потому что enterprise не живёт в режиме “вроде работает”.

У корпоративной среды другой тип требований.

Ей недостаточно получить полезный результат.
Ей нужно понимать, почему этот результат вообще считается допустимым.
Ей нужно уметь воспроизвести решение спустя время.
Ей нужно понимать, в каких границах действовала система.
Ей нужно знать, кто отвечает за переход от вероятностного вывода к реальному действию.

И вот тут большая часть красивых AI-инициатив внезапно теряет зрелый вид.

Потому что оказывается, что логика системы размазана по промптам, контексту, Retrieval, ручным договорённостям команды и неявным ожиданиям.

Это невозможно масштабировать.

Это невозможно нормально аудировать.

Это почти невозможно объяснить через шесть месяцев.

На старте на это никто не смотрит. Потому что все заняты эффектом.
Позже это становится главным ограничением.

Там, где команда надеялась получить автоматизацию, она получает архитектурный долг.

Почему “добавим оркестратор” обычно не спасает

Это очень типичная реакция рынка.

Когда система начинает вести себя нестабильно, её не переосмысливают. Её усложняют.

Добавляют ещё одного агента.
Вводят оркестрацию.
Добавляют валидацию.
Подключают новые слои мониторинга.
Перераспределяют роли.

Иногда это помогает на короткой дистанции.

Но чаще всего это только делает проблему менее заметной.

Потому что оркестрация управляет последовательностью шагов. Она почти никогда не решает вопрос нормы.

Она помогает разложить действия.
Она не отвечает на вопрос, какие решения допустимы вообще.

А в enterprise именно это и становится главным.

Можно идеально координировать процесс, который изначально не имеет зафиксированных границ допустимости.

Снаружи будет порядок.
Внутри останется хаос.

Вот почему некоторые multi-agent системы на старте кажутся зрелыми, а потом начинают тормозить, путаться в логике, давать плавающий результат и требовать всё больше ручной подстраховки.

Проблема не в числе агентов.

Проблема в том, что ни один из них не работает внутри ясно определённой нормативной рамки.

Почему хороший ответ ничего не гарантирует

Это, пожалуй, самое неприятное.

AI может давать хорошие ответы и всё равно быть опасной системой.

Потому что хороший ответ ещё не означает управляемое поведение.

Можно получить правильный результат случайно.
Можно получить разумный вывод без устойчивой логики.
Можно один раз попасть точно и десять раз не суметь объяснить, почему это произошло.

Для потребительского продукта это неприятно.
Для корпоративной среды это уже риск.

Потому что в enterprise вопрос звучит не так:

“ответ хороший или плохой?”

Он звучит так:

“можно ли на это опираться как на часть процесса?”

Если нельзя, система остаётся демонстрацией. Даже если технически она впечатляет.

Почему компании потом переписывают всё почти с нуля

Потому что архитектурные ошибки в AI редко видны сразу.

На старте они маскируются.

Ручной контроль их скрывает.
Сильная команда их компенсирует.
Малое количество сценариев делает их незаметными.

Но по мере роста всё меняется.

Количество кейсов увеличивается.
Правил становится больше.
Интеграций становится больше.
Исключений становится больше.
Цена ошибки начинает расти.

И в какой-то момент выясняется, что систему нельзя просто “подправить”.

Потому что проблема заложена в фундаменте.

Система строилась вокруг идеи “пусть сначала что-то сгенерирует, а потом мы это как-нибудь ограничим”.

Такая конструкция плохо взрослеет.

Поэтому и возникает то, что рынок почти не любит обсуждать: переписывание.

Не косметический рефакторинг.
Не улучшение агента.
Не замена модели.

А пересборка архитектуры.

Потому что только так можно перевести AI из режима демонстрации в режим управляемого слоя.

Что на самом деле должно быть в центре системы

Не модель.

Не агент.

Не оркестратор.

В центре зрелой AI-системы должен находиться слой, который определяет норму.

То есть слой, где зафиксировано:

что считается допустимым,
в каких границах действует автономия,
какие траектории решений разрешены,
что должно быть воспроизводимо,
в какой версии правил система вообще принимает решение.

Вот с этого момента AI начинает переставать быть просто моделью.

Он становится регуляторным механизмом внутри процесса.

Это и есть архитектурный сдвиг, который сейчас многие ещё не хотят признавать.

Рынок по инерции продолжает говорить про интеллект модели.
Но enterprise постепенно смещает разговор туда, где на самом деле решается судьба системы.

В управляемость.
В норму.
В ограничения.
В воспроизводимость.

И это уже не разговор про “удобную автоматизацию”.

Это разговор про власть над процессом.

Вывод

Самая неприятная правда про AI в проде звучит так.

Большинство систем ломаются не в интеллекте.
Они ломаются в конструкции.

Пока архитектура строится вокруг генерации, а не вокруг допустимости, любой AI остаётся красиво оформленным риском.

Он может быть полезным.
Может быть быстрым.
Может быть впечатляющим.

Но он не становится зрелым.

Потому что зрелость начинается не там, где система хорошо отвечает.

Зрелость начинается там, где система действует внутри нормы, которую можно зафиксировать, проверить и воспроизвести.

Именно поэтому следующий этап AI уже не про “ещё одну модель”.

Он про архитектуру, в которой правила стоят выше генерации.