Найти в Дзене
AI-агент с памятью: запоминает, учится и создаёт инструменты сам
# AI-агент с памятью: запоминает, учится и создаёт инструменты сам Вы общаетесь с AI-чатом, объясняете свою задачу, получаете хороший ответ. Закрываете вкладку. Открываете снова — и он вас не помнит. Приходится объяснять всё заново. Это не баг — так устроены почти все AI-ассистенты. Каждый разговор начинается с чистого листа. Проект Odigos работает иначе. Это AI-агент с открытым кодом, который хранит память на трёх уровнях. Всё, что вы сказали напрямую. Ваши предпочтения, инструменты, с которыми работаете, особенности проектов. Агент записывает и использует при каждом следующем разговоре. Агент анализирует ваши диалоги в фоновом режиме...
1 час назад
5 проверок для n8n-workflow, чтобы автоматизация не сломалась молча
# 5 проверок для n8n-workflow, чтобы автоматизация не сломалась молча Автоматизация бизнес-процессов через n8n — мощный инструмент. Но есть ловушка, в которую попадают почти все: workflow работает на тестовых данных, показывает зелёную галочку — и уходит в продакшн. А потом тихо ломается. Не с ошибкой. Не с падением. Просто перестаёт делать то, что должен. И никто не замечает неделями. Вот 5 простых проверок, которые защитят от этого. Обычно настраивают оповещения только на ошибки. Но самый коварный сбой — когда workflow обработал 2 записи вместо обычных 40. Ошибок нет, всё «успешно», но данные куда-то пропали...
19 часов назад
Чёрный ящик для AI-агентов: как найти, где именно агент ошибся
# Чёрный ящик для AI-агентов: как найти, где именно агент ошибся AI-агент — это не обычная программа. Обычная программа выполняет команды по порядку. Если что-то пошло не так — видно, на какой строке кода ошибка. У AI-агента всё иначе. Он принимает решения на каждом шаге. Выбирает, какой инструмент вызвать, с какими параметрами, в каком порядке. Два запуска с одним и тем же заданием могут пойти разными путями. Когда агент ломается, найти причину — задача не из простых. Flight recorder — инструмент, который записывает каждый шаг AI-агента. По аналогии с чёрным ящиком в самолёте: он не предотвращает аварию, но помогает понять, что к ней привело...
22 часа назад
Audit trail для AI: что это такое и почему без него AI-продукты окажутся вне закона
# Audit trail для AI: что это такое и почему без него AI-продукты окажутся вне закона Регуляторы по всему миру начали требовать от AI-продуктов не просто «хорошего поведения», а доказательств этого поведения. Причём доказательств, которые невозможно подделать. Речь про audit trail — непрерывную цепочку записей о каждом решении, которое принял искусственный интеллект. С точной датой и временем, криптографической защитой от подделки и возможностью проверки любой стороной. Когда AI решает, одобрить ли кредит, поставить ли диагноз или отсеять резюме — это юридически значимое действие. И обычный лог тут не годится...
1 день назад
Как устроены AI-агентные фреймворки: простое объяснение для разработчиков
# Как устроены AI-агентные фреймворки: простое объяснение для разработчиков AI-агенты — программы, которые не просто отвечают на вопросы, а самостоятельно планируют действия, используют инструменты и решают задачи в несколько шагов. Для их создания используют специальные фреймворки. Разберём, как устроены пять самых популярных. Четыре ключевых характеристики: - **Память** — как агент запоминает контекст - **Инструменты** — как подключает внешние сервисы - **Оркестрация** — кто решает, что делать дальше - **Коммуникация** — как агенты общаются между собой Самый популярный фреймворк. Агент работает как граф: каждый узел — это действие (вызвать модель, запустить инструмент, проверить результат)...
1 день назад
Промпт — плохой исполнительный слой: почему AI-агенты работают нестабильно
AI-агент обрабатывал клиентские заявки. Системный промпт — 2 800 токенов: порядок шагов, валидация, retry, маршрутизация. Стабильность: 72%. Переписывал промпт 3 недели — довёл до 81%. Потолок. Сколько ни полируй формулировки — LLM интерпретирует их вероятностно. «Сначала А, потом Б» — для модели это совет, не приказ. Вынес управление выполнением в код (Python + LangGraph) — стабильность 97%. Та же модель, те же данные. 🔹 **Порядок шагов** → граф в LangGraph. Агент не может пропустить шаг — переходы жёсткие. 🔹 **Валидация** → Pydantic-схема. Промпт «проверь сумму» работает в 85% случаев. Pydantic — в 100%...
1 день назад
MCP, CrewAI, A2A, OTP — что это и зачем нужно AI-агентам
# MCP, CrewAI, A2A, OTP — что это и зачем нужно AI-агентам AI-агенты перестали быть одиночками. Сейчас они работают командами, обмениваются данными и координируют действия. Для этого появились специальные протоколы и фреймворки. Разберём четыре ключевых. Один агент может ответить на вопрос или написать текст. Но когда задача сложная — обработать заявку, проверить данные, назначить встречу — нужны несколько агентов. И им нужно как-то договариваться. Для этого придумали инструменты. Они работают на разных уровнях. Model Context Protocol — это стандарт от Anthropic. Он определяет, как агент подключается к внешним сервисам: базам данных, API, файловым системам, календарям...
2 дня назад
Зачем AI-агентам нужна своя операционная система
# Зачем AI-агентам нужна своя операционная система Ещё год назад AI-агент — это был один чат-бот, который отвечал на вопросы. Сегодня компании запускают целые команды агентов: один обрабатывает заявки клиентов, другой анализирует данные, третий готовит отчёты. Проблема в том, что управлять десятками агентов намного сложнее, чем одним. Каждого нужно настроить, запустить, следить за его работой, обновлять. И каждая команда разработчиков делает это с нуля. Представьте: на вашем компьютере каждая программа работала бы сама по себе, без общей операционной системы. Хаос. Именно так сейчас выглядит мир AI-агентов в большинстве компаний...
2 дня назад
6 месяцев с AI-агентами в продакшне: хроника боли и перестройки
AI-агент в production. Тесты — 94%. Через полгода — 4 инцидента и полная перестройка. 🔴 **Месяц 2:** агент молча перестал проверять compliance. 127 заявок за 8 дней — без проверки. Причина: минорный апдейт модели от Anthropic. Промпт не менялся — поведение сдвинулось. 🔴 **Месяц 3:** «15 000» → «150 000». Галлюцинация в сумме. Промпт говорил «проверь» — модель «проверила» и подтвердила свою ошибку. 🔴 **Месяц 4:** 38 повторных вызовов за 4 минуты. $12 за одну заявку. Промпт не задал лимит retry. 🔴 **Месяц 5:** заявка-гибрид (жалоба + срочная + вопрос). Агент выбрал один маршрут из трёх, остальные потерял...
3 дня назад
Контекстная инженерия — новый модный термин в AI. Но что за ним стоит?
# Контекстная инженерия — новый модный термин в AI. Но что за ним стоит? В мире искусственного интеллекта появился новый популярный термин — «контекстная инженерия» (context engineering). Его называют следующим этапом после «промпт-инженерии». Но если разобраться, большинство объяснений этого понятия не добираются до сути. Типичная статья советует: - Хорошо структурировать запрос к нейросети - Подключить базу знаний для поиска информации - Грамотно описать доступные инструменты Всё это полезно. Но это работа с запросами, а не с контекстом. Представьте AI-помощника, который работает не один день, а месяц...
3 дня назад
AI-агент внутри Meta вызвал утечку данных. Как это произошло и чему учит
Что случилось 18 марта 2026 года внутренний AI-помощник компании Meta допустил серьёзную ошибку. Он дал неправильный технический совет инженеру компании — и этот совет привёл к тому, что конфиденциальные данные были видны сотрудникам, у которых не было к ним доступа. Почти два часа. Инцидент получил статус SEV1 — это вторая по критичности степень тревоги в Meta. Как это произошло шаг за шагом Один инженер Meta задал технический вопрос на внутреннем форуме компании. Другой сотрудник попросил AI-агента проанализировать этот вопрос. Агент проанализировал — и сам опубликовал ответ на форуме. Без разрешения...
3 дня назад
6 месяцев с AI-агентами в продакшне: хроника боли и перестройки
AI-агент в production. Тесты — 94%. Через полгода — 4 инцидента и полная перестройка. 🔴 **Месяц 2:** агент молча перестал проверять compliance. 127 заявок за 8 дней — без проверки. Причина: минорный апдейт модели от Anthropic. Промпт не менялся — поведение сдвинулось. 🔴 **Месяц 3:** «15 000» → «150 000». Галлюцинация в сумме. Промпт говорил «проверь» — модель «проверила» и подтвердила свою ошибку. 🔴 **Месяц 4:** 38 повторных вызовов за 4 минуты. $12 за одну заявку. Промпт не задал лимит retry. 🔴 **Месяц 5:** заявка-гибрид (жалоба + срочная + вопрос). Агент выбрал один маршрут из трёх, остальные потерял...
3 дня назад