Добавить в корзинуПозвонить
Найти в Дзене
Цифровая Переплавка

Контекстная инженерия: следующий шаг после промпт-инжиниринга

Ещё пару лет назад мы спорили о том, как правильно «задизайнить» промпт для языковой модели: где поставить запятую, как структурировать инструкцию, нужно ли добавлять «ты полезный ассистент». Но с ростом сложности ИИ-агентов стало ясно: дело не только в тексте подсказки, а в том, какой контекст мы подсовываем модели. Так родилось новое направление — контекстная инженерия. 🧠 Почему это важно
Современные LLM умеют работать с контекстами в сотни тысяч токенов. Но это не значит, что «чем больше, тем лучше»: ⚙️ Техники контекстной инженерии 💡 Моё видение
Контекстная инженерия — это на самом деле новая культура программирования ИИ. Если промпт-инжиниринг был «ручным ремеслом», то контекст-инжиниринг ближе к архитектуре систем. Тут важна не красота одной подсказки, а организация всего рабочего пространства агента. Интересно, что мы приходим к аналогиям с человеческим мозгом: Мне кажется, в ближайшие годы «инженер по контексту» станет такой же профессией, как сегодня ML Ops: человек, который

Ещё пару лет назад мы спорили о том, как правильно «задизайнить» промпт для языковой модели: где поставить запятую, как структурировать инструкцию, нужно ли добавлять «ты полезный ассистент». Но с ростом сложности ИИ-агентов стало ясно: дело не только в тексте подсказки, а в том, какой контекст мы подсовываем модели.

Так родилось новое направление — контекстная инженерия.

🧠 Почему это важно
Современные LLM умеют работать с контекстами в сотни тысяч токенов. Но это не значит, что «чем больше, тем лучше»:

  • 📉 Эффект загрязнения. Чем больше токенов в окне, тем хуже модель вспоминает детали — появляется «context rot - деградация контекста».
  • Квадратичная сложность. В трансформерах каждая пара токенов взаимодействует со всеми остальными (O(n²)), и это ресурсно тяжело.
  • 🎯 Ограниченное внимание. Даже самые умные модели имеют «бюджет фокуса» — если его потратить на мусорные данные, точность падает.

⚙️ Техники контекстной инженерии

  • ✂️ Компактизация. Сжатие истории взаимодействий. Вместо 50 экранов логов — аккуратное резюме ключевых шагов. Claude Code, например, умеет очищать следы инструментов, оставляя только архитектурные решения и баги.
  • 📝 Структурированные заметки. Агент ведёт NOTES.md, куда сам фиксирует цели и промежуточные результаты. После сброса контекста он читает свои записи и продолжает без потери памяти.
  • 🤝 Мультиагентные системы. Главный агент управляет «подагентами», которые работают в отдельных окнах, потом возвращают сжатые выводы. Это как распределённая команда, где каждый отвечает за свой участок.
  • 🔍 Just-in-time контекст. Вместо того чтобы грузить весь датасет в модель, агент динамически подтягивает нужные куски (например, через grep, glob или SQL-запросы). Это похоже на то, как человек не помнит всю Википедию, а ищет нужную страницу.

💡 Моё видение
Контекстная инженерия — это на самом деле
новая культура программирования ИИ.

Если промпт-инжиниринг был «ручным ремеслом», то контекст-инжиниринг ближе к архитектуре систем. Тут важна не красота одной подсказки, а организация всего рабочего пространства агента.

Интересно, что мы приходим к аналогиям с человеческим мозгом:

  • компактизация — это сон, когда мозг упаковывает дневные события;
  • заметки — это внешний жёсткий диск (тетрадь, Trello, Obsidian);
  • подагенты — это «модули внимания» мозга (зрительный, слуховой, моторный).

Мне кажется, в ближайшие годы «инженер по контексту» станет такой же профессией, как сегодня ML Ops: человек, который отвечает за то, чтобы агент не утонул в данных и принимал осмысленные решения.

📎 Источник: