Найти в Дзене
У клиента стояла задача: агент-консультант для бизнеса. Обрабатывать входящие запросы, отвечать на вопросы об услугах и кейсах, принимать заявки и записывать на консультацию — в автоматическом режиме, круглосуточно. Задача типичная. И именно потому, что типичная — мы разобрали её подробно. Потому что путь от "агент отвечает на тестовых вопросах" до "агент работает у реального клиента" — это дистанция, которую многие недооценивают. По ходу разработки стало понятно: разница между прототипом и системой — не в выборе языковой модели. В том, как выстроена вся цепочка: методология проектирования, структура промпта, архитектура поиска и — что особенно важно — способность измерить, насколько хорошо система работает. В третьей части серии про продакшн-реди агентов разбираем это на наглядном демонстрационном примере: — AI-driven методология в Cursor: идея → видение → соглашения → итерации — Системный промпт: 5 принципов от Anthropic и OpenAI с разбором каждого — Эволюция RAG: наивный → гибридный → Agentic RAG — с цифрами по метрикам — Полный цикл контроля качества: LangSmith и RAGAS Узнаёте задачу? Это не один конкретный проект — это путь, который проходит почти каждый, кто берётся строить агентов всерьёз. Смотрите на Дзен. Предыдущие части серии: Часть 1 • Часть 2 Если хотите узнать про наш продакшн опыт и личные взгляды — вебинар 11–12 марта: forms.yandex.ru/...378 Пишите «АГЕНТ» в @smirnoff_ai — покажем, как пройти этот путь без лишних ошибок. Все наши курсы по ИИ тут: llmstart.ru/...mbo
2 недели назад
Крупнейшие технологические компании одновременно переориентируют свои продукты, API и инструменты на AI-агентов. Это не разрозненные новости — это системный сдвиг парадигмы: от «AI как чат-ассистент» к «AI-агент как полноправный участник рабочего процесса» — или даже полноценный сотрудник. Google Workspace CLI 🔧 — один CLI для Drive, Gmail, Calendar, Sheets, Docs. Репозиторий содержит 100+ Agent Skills — файлы skill.md с инструкциями специально для агентов, а не для людей. Встроенный MCP-сервер, защита от prompt injection через --sanitize. Официальная формулировка: «built for humans and AI agents». OpenAI Symphony 🎼 — система для координации работы нескольких ИИ-агентов при выполнении разных задач: тикет в Linear → изолированный sandbox → Codex выполняет задачу → pull request. Open-source фреймворк — команда управляет работой, а не надзирает за каждым шагом агента. Google Chrome WebMCP 🌐 — новый браузерный API , позволяющий сайтам явно объявлять структурированные действия для агентов: бронирование, оформление заказа, создание тикета. Агент взаимодействует через явный контракт, а не через работу с DOM. Stripe + OpenAI Agentic Commerce Protocol 💳 — открытый стандарт для покупок через агентов, уже работает в ChatGPT. Stripe позиционирует себя как «экономическая инфраструктура для AI». Linear for Agents ✅ — агенты как полноправные участники работы над проектом: им назначают задачи, тегают в комментариях, измеряют их производительность отдельной метрикой. MCP → Agentic AI Foundation 🤝 — Anthropic передал Model Context Protocol под управление Linux Foundation. 10 000+ серверов. 100 млн скачиваний SDK в месяц. Происходящее — не набор разрозненных продуктовых анонсов, а инфраструктурный сдвиг, сопоставимый с появлением REST API в 2000-х или мобильных SDK в 2010-х. Тогда компании перестроили продукты под программистов-интеграторов и мобильных пользователей; сейчас перестраивают под AI-агентов. Вопрос уже не «использовать ли AI», а «готовы ли ваши продукты и процессы к агентам как к полноправным пользователям». Инфраструктура под агентов строится прямо сейчас. Окно возможностей открыто — но ненадолго. ❗Разбираем как в это встроиться: протоколы, архитектура, production-ready системы — а не догонять потом. ⤵ Все подробности 👉 llmstart.ru
3 недели назад
39% программистов боятся потерять работу из-за AI через 5 лет. Исследование 937 разработчиков показало, кто выживет
Я не люблю статьи в духе "AI заменит всех программистов". Но есть исследование, которое я не смог проигнорировать. Т-Банк провёл масштабную работу: "Комплексное исследование влияния искусственного интеллекта на профессиональную деятельность в IT-индустрии" - это мета-анализ публикаций за 2023–2025 годы плюс живой опрос 937 инженеров и технических руководителей. Не маркетинговый опрос "нравится вам AI?" — а конкретные данные про продуктивность, качество кода, уровень доверия и сроки поставки. Картина получилась неожиданной...
1 месяц назад
Какие навыки по ИИ реально нужны работодателям в 2026? Разобрал 189 вакансий
Всё больше людей понимают: ИИ-технологии важно осваивать. Но какие именно? Куда двигаться, чтобы это было реально востребовано, а не просто «модное направление»? Я нашёл ответ — не в советах карьерных консультантов, а в реальных вакансиях. Я давно подписан на рассылку AI/ML вакансий. Каждый день приходят десятки позиций — ML-инженер, ИИ-разработчик, Data Scientist. Недавно на консультации со студентом, который только недавно начал наше обучение по ИИ-агентам, зашёл разговор о карьере. Он рассказал: в его компании открылись новые позиции ИИ-инженеров...
1 месяц назад
AI-агент слил $10,000 за ночь. Как не потерять контроль над автономной системой
Представьте: пятница вечером запустили AI-агента в продакшен. Всё работает. В субботу утром открываете почту — счёт от OpenAI на $10,387. Агент ушёл в бесконечный цикл. Работал всю ночь. Один запрос, 8 часов, сотни итераций. Это не фантастика. Это реальная история, которая повторяется каждую неделю в разных компаниях. Агенты существуют автономно. Принимают решения без участия человека. Взаимодействуют с клиентами и системами — пока вы спите. И тут возникает вопрос: где проходит граница между эффективной...
1 месяц назад
RAG - как на самом деле дать ИИ доступ к корпоративным знаниям
Типичный запрос от бизнеса: "Хотим внедрить ИИ-ассистента который знает все наши регламенты, базу знаний, историю проектов. Давайте обучим модель на наших данных! Или просто развернём готовое RAG-решение!" Звучит логично. На практике 80% таких проектов проваливаются в первые 3 месяца. Почему? Потому что под этими словами скрывается фундаментальное непонимание, как работают языковые модели. Давайте разберёмся, что такое RAG на самом деле и почему это определяет успех или провал вашего ИИ-проекта...
2 месяца назад
Умный вайб‑кодинг: как поладить с ИИ и не утонуть в коде
Вы когда‑нибудь ловили себя на том, что нейросеть «не понимает» ваших задач и выдаёт странные ответы? Это происходит потому, что LLM‑модель не знает контекста и работает вслепую. Наш подход к AI‑driven разработке помогает превратить ИИ в полноценного помощника и построить процесс так, чтобы семь раз отмерить, а один раз сгенерировать. Первое, что нужно понять: ИИ — не замена программиста, а его усилитель. Модель умеет генерировать код, но без четкого контекста будет гадать. Поэтому вся AI‑разработка держится на трёх столпах: Зафиксируйте идею...
6 месяцев назад
4 уровня владения AI-разработкой (vibe-coding vs AI-driven)
За год корпоративных тренингов мы провели обучение для более чем двухсот IT-специалистов и заметили интересную закономерность. Практически все проходят схожий путь эволюции в работе с искусственным интеллектом. Разработчики, системные аналитики, продакт-менеджеры, тимлиды, архитекторы - большинство идет по похожей траектории развития. Здесь были абсолютно все. На этом этапе мы делаем всю работу руками. Разработчики пишут код строчка за строчкой, аналитики создают диаграммы в Visio или Figma, продакт-менеджеры составляют техзадания в Word, архитекторы рисуют схемы в PowerPoint...
8 месяцев назад
Tree of Thoughts: Как находить лучшие решения с помощью нейросети
Этот метод помогает нейросети не просто дать один ответ, а разбить задачу на этапы, предложить несколько вариантов решений и выбрать лучший из них. Tree of Thoughts – это метод, который работает как система принятия решений. Вместо того чтобы решить задачу за один шаг, нейросеть: По сути, нейросеть анализирует задачу как человек, размышляющий над сложной задачей. Она не делает выбор "наугад", а систематически перебирает варианты. Если вы разрабатываете ассистента или другую систему на базе LLM, Tree of Thoughts помогает сделать модель более умной и гибкой. Вот как можно применить метод: 1. Декомпозиция задачи Разбейте большую задачу на этапы...
1 год назад
Как решать большие и сложные задачи с помощью Prompt Chaining: шаг за шагом к желаемому результату
Пробовали ли вы когда-нибудь поручить нейросети решить что-то действительно масштабное? Например, попросить её создать техническое задание для проекта с нуля, написать развернутый анализ данных или расписать поэтапный план внедрения продукта? Ожидаешь, что модель выдаст понятный и связанный ответ, но вместо этого получаешь что-то громоздкое, бессвязное или слишком поверхностное. А всё потому, что объёмные задачи часто требуют не одного запроса... И тут на сцену выходит метод Prompt Chaining. Prompt Chaining, или "цепочка промптов", — это метод, при котором задача делится на этапы, каждый из которых формулируется отдельным запросом к нейросети...
1 год назад
🔍Польза prompt-инжиниринга для разработки ПО Всем привет, друзья! Сегодня мы с Алексом поговорили о примерах того, как генеративные нейросети можно и нужно использовать при разработке программного обеспечения и не только. Для тех кто любит читать, а не смотреть и слушать делимся кратким конспектом диалога. 1. Саммаризация текста Каждый разработчик сталкивался с ситуацией, когда нужно погрузиться в огромные объемы текста — будь то документация, отчеты или переписки. Здесь на помощь приходит LLM, которая способна кратко излагать основное содержание длинных текстов. Вместо того чтобы перечитывать сотни страниц, вы получаете краткую и емкую выжимку, которую можно сразу использовать в работе. Эта техника отлично работает для трансформации лекций, эфиров и митингов в удобные, легко усваиваемые резюме. 😉 2. Извлечение информации А теперь представьте, что вам нужно вытащить ключевую информацию из длинного документа. LLM справляется с этим на ура! Вы просто указываете, какие данные вам нужны, и модель сама найдет и выделит их. Главное здесь — правильно построить промпт. 💡 Советы от экспертов: размещайте инструкции в начале промпта. Так LLM лучше сфокусируется на задаче и выдаст более точные результаты. 3. Классификация текста Классификация текста по тональности — еще одна мощная техника. Представьте, что вам нужно проанализировать сотни отзывов или комментариев. LLM быстро определит, какие из них позитивные, какие негативные, а какие нейтральные. Это не только экономит время, но и помогает оперативно реагировать на критику и улучшать продукт. Эту технику активно используют для анализа обратной связи, например, в чатах с клиентами или при обработке отзывов пользователей. 🛠 4. Кодогенерация Один из самых захватывающих аспектов использования LLM — это генерация кода. LLM может создавать SQL-запросы, писать конфигурации для спринга, генерировать верстку на HTML и даже предлагать решения по структуре базы данных. Это особенно полезно в ситуациях, когда нужно быстро создать прототип или решить рутинную задачу. 🚀 5. Документирование Документирование — это то, что многие разработчики не любят делать. Но LLM справляется с этим с удовольствием! От написания технической документации до создания руководств для пользователей. LLM помогает при создании диаграмм, описании баз данных и даже в подготовке планов обучения для команды. Теперь документирование — это не рутина, а простой и понятный процесс. 📄 6. Тестирование ПО Специалисты по тестированию максимально оценили пользу LLM в генерации тест-кейсов и формировании чек-листов. Модель способна анализировать поведение системы, предлагать критические пути тестирования и даже выдавать рекомендации по улучшению процессов. И это ещё не всё! LLM активно применяется в автоматизированном тестировании, что позволяет сэкономить время и силы команды. Точность и качество тестов значительно улучшаются, а рутинные задачи становятся прошлым. 🧪 7. DevOps и инфраструктура Не забыли мы и про DevOps! LLM помогает автоматизировать процессы, связанные с настройкой инфраструктуры, написанием скриптов для развертывания, конфигурацией окружений и даже миграцией между системами. Использование LLM здесь позволяет значительно ускорить работу и сократить количество ошибок. 🔧 Если у вас уже есть опыт использования LLM или вы только планируете внедрять их в свою работу, поделитесь своими мыслями и идеями в комментариях. Какие задачи они помогли решить вам? А в чем они полностью провалили вашу экзаменовку? 💬 Приглашаем также в наш Telegram, чтобы получать еще больше полезных материалов и интерактива!
1 год назад
Prompt Engineering #01 В нашей новой серии диалогов мы разбираем основы Prompt Engineering — дисциплины, которая позволяет максимально использовать потенциал LLM. Ссылка на видео диалога: dzen.ru/...87b  Почему это важно? Промпт-инжиниринг — это не просто искусство правильно задавать вопросы. Это фундаментальная основа для того, чтобы получать от LLM качественные и релевантные ответы. В условиях, когда LLM используется всё чаще и в самых разных сферах, от разработки ПО до анализа данных, знание принципов промпт-инжиниринга становится обязательным навыком для каждого IT-специалиста.  Что мы обсудили: - Что такое Prompt Engineering и зачем он нужен? Мы подробно объяснили, что Prompt Engineering — это не просто написание текстов для моделей, а целая наука, включающая в себя разработку и оптимизацию промптов. Чем лучше продуман промпт, тем более точным и полезным будет ответ от модели. Это критично для любой системы на базе LLM. - Настройка ключевых параметров LLM-моделей Рассмотрели параметры, такие как температура (temperature), topP, длина ответа (maxLength) и штрафы за повторяемость (frequency и presence penalties). Обсудили, как эти параметры влияют на поведение модели и как их правильно настраивать в зависимости от задачи. Например, для точных и предсказуемых ответов лучше снижать температуру, а для креативных задач — повышать. - Роли System, User и Assistant в промптах Прошли по структуре промптов и разобрали, как системные, пользовательские и ассистентские сообщения могут менять поведение модели. Пример с вопросом о приготовлении шашлыка наглядно показал, как разная установка ролей может привести к совершенно разным ответам. - Техники Few-Shot и Zero-Shot Prompting Обсудили, как примеры в промптах помогают модели лучше понять контекст и задачу. Few-Shot Prompting, когда мы даем несколько примеров, позволяет получить более точные и предсказуемые ответы, в то время как Zero-Shot Prompting полагается на внутренние знания модели.  Итоги: Если вы хотите эффективно работать с LLM-моделями, то владение техникой Prompt Engineering становится необходимостью. Простые и чёткие промпты, правильная настройка параметров и понимание ролей — всё это помогает получить качественные и релевантные ответы. Поделитесь своим опытом и мыслями в комментариях — обсудим, что работает лучше всего! Подписывайтесь на наш Telegram, чтобы получить больше полезных материалов и обсудить их с единомышленниками! #AI #LLM #promptengineering
1 год назад