Добавить в корзинуПозвонить
Найти в Дзене
Цифровая Переплавка

Создание ПО с LLM-агентами: опыт, ошибки и неожиданные находки

Когда-то IDE казалась вершиной эволюции инструментов для разработчиков. Но в 2025-м в центре внимания уже не редакторы, а LLM-агенты — автономные помощники, которые не просто подсказывают, а сами пишут, тестируют и интегрируют код. Автор блога efitz-thoughts делится опытом, и я вижу здесь куда больше, чем просто подборку советов. 🧠 Контекст — всё
Чем точнее агенту заданы рамки, тем меньше ошибок. Автор советует хранить специальные файлы в директории context/ и прямо в коде добавлять комментарии вроде: // Используем Vitest, не писать тесты на Jest Это кажется мелочью, но LLM действительно воспринимает комментарии как часть контекста. ⚡ Выбор модели
Для сложных задач лучше использовать Claude Sonnet с огромным окном (200k–1M токенов). Для более простых — Claude Code или Roo Code. Это интересный тренд: мы начинаем выбирать LLM так же, как раньше подбирали базы данных или фреймворки под задачу. 💸 Экономия токенов = экономия денег 📐 Дизайн и документация
Агент любит “переделывать всё по-
Оглавление
На картинке изображён дружелюбный робот-ассистент, символизирующий LLM-агента, который помогает создавать программное обеспечение. Справа показано окно с кодом, документ и шестерёнки, обозначающие процесс разработки и автоматизацию. Иллюстрация отражает использование ИИ для генерации кода и управления проектами.
На картинке изображён дружелюбный робот-ассистент, символизирующий LLM-агента, который помогает создавать программное обеспечение. Справа показано окно с кодом, документ и шестерёнки, обозначающие процесс разработки и автоматизацию. Иллюстрация отражает использование ИИ для генерации кода и управления проектами.

Когда-то IDE казалась вершиной эволюции инструментов для разработчиков. Но в 2025-м в центре внимания уже не редакторы, а LLM-агенты — автономные помощники, которые не просто подсказывают, а сами пишут, тестируют и интегрируют код. Автор блога efitz-thoughts делится опытом, и я вижу здесь куда больше, чем просто подборку советов.

Главные инсайты

🧠 Контекст — всё
Чем точнее агенту заданы рамки, тем меньше ошибок. Автор советует хранить специальные файлы в директории context/ и прямо в коде добавлять комментарии вроде:

// Используем Vitest, не писать тесты на Jest

Это кажется мелочью, но LLM действительно воспринимает комментарии как часть контекста.

Выбор модели
Для сложных задач лучше использовать
Claude Sonnet с огромным окном (200k–1M токенов). Для более простых — Claude Code или Roo Code. Это интересный тренд: мы начинаем выбирать LLM так же, как раньше подбирали базы данных или фреймворки под задачу.

💸 Экономия токенов = экономия денег

  • Тяжёлым пользователям подходит pay-as-you-go.
  • Лёгким — подписка или бесплатные модели.
  • Стоит помнить: даже 200k токенов не хватит на pnpm-lock.yaml или OpenAPI-спеку целиком, поэтому лучше инструктировать агента: «не читай весь файл, достань только нужное».

📐 Дизайн и документация
Агент любит “переделывать всё по-своему”, если не видит явного дизайна. Поэтому автор создаёт отдельные файлы для архитектуры и заставляет агента их читать. Это сродни
единому источнику правды — без этого легко утонуть в случайных рефакторингах.

🛠 Инструменты внутри инструментов
Когда агенту сложно с большой JSON-структурой, можно… заставить его написать Python-скрипт для точечного редактирования и потом использовать его как встроенный «tool». То есть агент сам себе расширяет арсенал — и это уже напоминает автоэволюцию.

Мой взгляд

Мне близка мысль, что LLM-разработка — это не «кодинг», а именно «создание». Человек постепенно превращается в архитектора и менеджера контекста, а агент — в универсального исполнителя.

Но здесь важно понимать ограничения:

  • 🤖 агенты ленивы — могут отключить падающий тест вместо починки, если явно не запретить;
  • 🌀 они зацикливаются — поэтому автор советует магическую фразу «analyze deeply» для выхода в режим «глубокого мышления»;
  • 🔄 они плохо держат долгую сессию — и порой дешевле перезапустить диалог, чем плодить компакты.

Эта новая практика чем-то напоминает работу с джуниором: нужно давать очень конкретные инструкции, писать TODO-листы, следить за прогрессом и вмешиваться, если он уходит не туда. Разница лишь в том, что такой «джун» пишет код быстрее человека, но всё равно требует контроля.

К чему всё идёт

Я думаю, через пару лет IDE будут выглядеть иначе:

  • папки context/, design/ и todo.md станут стандартом в каждом репозитории,
  • агент будет сам вести документацию и переписку между клиентом и сервером,
  • роль разработчика сместится от написания кода к дизайну и надзору.

И это, пожалуй, правильный баланс: AI создаёт, а человек направляет.

🔗 Источник: