Добавить в корзинуПозвонить
Найти в Дзене

Контекст-инжиниринг: почему будущее ИИ зависит не от подсказок, а от того, как мы управляем вниманием модели

Anthropic — это исследовательская и продуктовая компания в области искусственного интеллекта, ориентированная на безопасность и этичность. (anthropic.com) Они позиционируют себя как public benefit corporation — то есть с миссией приносить пользу обществу и снижать риски, связанные с развитием ИИ. (anthropic.com) Их главный продукт — семейство моделей под брендом Claude (Claude, Claude Code и др.). (anthropic.com) Они публикуют результаты исследований, работают над политиками безопасности и прозрачности, поддерживают документы для разработчиков. (anthropic.com) У них есть также образовательная инициатива — Anthropic Academy, и публичные обещания в части ответственного масштабирования ИИ. (anthropic.com) Anthropic опубликовал статью “Effective context engineering for AI agents” (https://www.anthropic.com/engineering/effective-context-engineering-for-ai-agents). Вот самое интересное из нее: Контекст — это один из ключевых, но ограниченных ресурсов для работы ИИ-агентов. И если раньше осно

Anthropic — это исследовательская и продуктовая компания в области искусственного интеллекта, ориентированная на безопасность и этичность. (anthropic.com)

Они позиционируют себя как public benefit corporation — то есть с миссией приносить пользу обществу и снижать риски, связанные с развитием ИИ. (anthropic.com)

Их главный продукт — семейство моделей под брендом Claude (Claude, Claude Code и др.). (anthropic.com)

Они публикуют результаты исследований, работают над политиками безопасности и прозрачности, поддерживают документы для разработчиков. (anthropic.com)

У них есть также образовательная инициатива — Anthropic Academy, и публичные обещания в части ответственного масштабирования ИИ. (anthropic.com)

Anthropic опубликовал статью “Effective context engineering for AI agents” (https://www.anthropic.com/engineering/effective-context-engineering-for-ai-agents). Вот самое интересное из нее:

Контекст — это один из ключевых, но ограниченных ресурсов для работы ИИ-агентов. И если раньше основное внимание уделялось тому, что именно мы говорим модели, то сегодня всё большее значение приобретает вопрос: что именно она знает в момент, когда принимает решение.Именно это и есть контекст-инжиниринг — новый подход к созданию умных агентов, который меняет само представление о том, как строить системы на основе больших языковых моделей (LLM).От prompt-инжиниринга к context-инжинирингу
Несколько лет назад все обсуждали prompt engineering — искусство написания правильных подсказок. Смысл был в том, чтобы подобрать точные слова и инструкции, которые приведут к нужному результату.Сегодня фокус смещается. Теперь главный вопрос звучит так:
какая конфигурация контекста с наибольшей вероятностью вызовет нужное поведение модели.Под контекстом понимается набор токенов, передаваемых модели при генерации ответа. Задача инженера — оптимизировать этот набор так, чтобы в рамках ограничений модели он давал максимально полезный результат. Это требует мышления «в контексте»: учитывать всё состояние, доступное модели в момент запроса, и понимать, какие варианты поведения оно может породить.Prompt vs. Context: в чём разница
Prompt-инжиниринг — это создание и структурирование инструкций. Контекст-инжиниринг — это более широкий процесс, включающий стратегии отбора, обновления и поддержки
всей информации, которая окажется в окне внимания модели.Раньше промпты были главной частью работы, потому что большинство задач сводилось к одноразовой генерации текста или классификации. Но когда мы начинаем строить более сложных агентов, работающих в несколько шагов и на длинной дистанции, нужно уметь управлять всей контекстной средой: системными инструкциями, инструментами, данными, историей сообщений и т.д.Агенты, работающие в цикле, генерируют всё больше данных, которые могут быть полезны на следующем шаге. Поэтому контекст нужно постоянно перерабатывать, сокращать, фильтровать и обновлять. Контекст-инжиниринг — это как редактура: из бесконечного объёма информации мы выбираем то, что действительно важно.Почему это важно
Даже самые мощные LLM теряют фокус при слишком большом объёме контекста. Исследования показывают феномен
context rot — чем больше токенов в окне, тем хуже модель вспоминает нужную информацию.Причина в архитектуре трансформеров: каждый токен «смотрит» на каждый другой, и по мере роста их количества внимание «размазывается». Кроме того, большинство моделей обучены на коротких последовательностях, поэтому с длинным контекстом они справляются хуже.Именно поэтому контекст — это ресурс с ограниченной «внимательной ёмкостью». У модели, как и у человека, есть «бюджет внимания», и каждый новый токен его уменьшает.Как выглядит хороший контекст
Главный принцип —
минимум токенов, максимум смысла. На практике это означает следующее:1. Системные подсказки
Они должны быть максимально понятными и прямыми. Не нужно ни чрезмерной детализации (это делает систему хрупкой), ни слишком общих фраз (они не дают модели чётких сигналов). Найти «золотую середину» — значит задать конкретное направление и оставить пространство для гибкости.Полезно структурировать подсказки по секциям (, , ## Tool guidance, ## Output descriptionи т.д.) и чётко отделять их с помощью XML-разметки или Markdown-заголовков. Главное — ясность и достаточность информации, а не её объём.2. Инструменты
Инструменты — это то, что позволяет агенту взаимодействовать с внешним миром. Они должны быть простыми, чётко описанными и не пересекаться по функциям. Параметры — однозначными.Одна из типичных ошибок — слишком большой набор инструментов. Если человек не может однозначно выбрать нужный инструмент, модель тоже не сможет.3. Примеры
Примеры (few-shot prompting) остаются важнейшим способом обучения модели. Но лучше дать несколько качественных и показательных примеров, чем длинный список краевых случаев. Примеры для модели — это как «картинки», которые лучше тысячи слов.Динамический контекст и поиск в реальном времени
Современные агенты всё чаще используют подход
«just-in-time» — то есть не загружают всё заранее, а подтягивают нужные данные в момент выполнения.Например, агент может хранить только пути к файлам или ссылки, а нужную информацию загружать инструментами по мере необходимости. Claude Code работает именно так: пишет запросы к БД, анализирует результаты через head и tail, не загружая всю базу данных в контекст.Такой подход ближе к человеческому мышлению: мы не запоминаем всё подряд, а пользуемся файлами, папками, поиском и закладками.Плюсы: меньше токенов, больше гибкости.
Минусы: динамическая загрузка медленнее и требует чёткой инженерии.Иногда наилучший результат даёт гибридная стратегия — часть данных подгружается заранее, часть — по мере работы. Например, Claude Code загружает файл CLAUDE.md сразу, а затем использует команды glob и grep для навигации и поиска файлов.Контекст на длинной дистанции
Если задача длится десятки минут или часы (например, миграция кода или исследование), контекстное окно становится узким местом. Решений три:1. Компактизация
Сжатие истории взаимодействия до краткой, но информативной сводки. Агент отбрасывает лишние детали, но сохраняет архитектурные решения и ключевые факты.2. Структурированные заметки (память)
Агент записывает важные данные вне контекста и подгружает их по мере необходимости. Это позволяет отслеживать прогресс и помнить ключевые детали даже после «сброса» контекста.3. Подагенты
Вместо одного «всезнающего» агента создаются специализированные подагенты с собственным контекстом. Главный агент объединяет результаты. Это повышает точность и масштабируемость системы.Итог
Контекст-инжиниринг — это не мода и не новый маркетинговый термин. Это фундаментальный сдвиг в том, как мы строим системы на базе LLM.Создать хороший промпт — это только начало. Настоящая работа начинается тогда, когда нужно решить,
какая именно информация попадёт в ограниченное окно внимания модели.Сжимайте контекст, если задача длительная.
Проектируйте инструменты, экономные по токенам.
Позвольте агенту искать нужные данные «по требованию».
Главный принцип остаётся прежним:
найдите минимальный набор максимально значимых токенов, который повысит шанс на нужный результат.По мере роста возможностей моделей роль человека будет смещаться от написания инструкций к проектированию информационной среды. Но даже в будущем контекст останется тем самым «вниманием», с которым нужно обращаться бережно, если мы хотим создавать надёжных и эффективных ИИ-агентов.✍️ Перевод и адаптация по материалу Anthropic Applied AI с использованием искусственного интеллекта.