Промпт для саммари — это точная инструкция для нейросети, которая позволяет автоматически превращать длинные лонгриды в структурированную выжимку фактов за 10 секунд, экономя до 90% времени на работу с информацией.
Зачем читать статьи, если их может прочитать робот?
Знаете это чувство, когда в закладках "Почитать позже" скапливаются сотни ссылок? Раньше я тратила по 2 часа в день просто на то, чтобы просеять информационный шум и найти зерна пользы для своего контента. Открываешь статью, читаешь три абзаца "воды", закрываешь. Время потеряно, пользы ноль.
Многие пытаются решать это через ChatGPT, кидая ссылку и прося: "Перескажи текст". И получают в ответ еще один текст — скучный, размытый, без конкретики. Это происходит не потому, что нейросеть глупая, а потому что задача поставлена небрежно.
Я больше не читаю новости в сыром виде. Я настроила систему, которая сама забирает статьи, выжимает из них "мясо" и складывает мне в Notion или Telegram уже в готовом виде. Сегодня я поделюсь с вами сердцем этой системы — идеальным промптом для саммари.
Что такое промпт и почему обычная просьба не работает
Промпт — это программный код, написанный на человеческом языке. Если вы скажете программисту "сделай красиво", результат вас вряд ли устроит. С нейросетями так же. Чем точнее вы опишете роль, задачу и формат вывода, тем качественнее будет результат.
Обычный запрос "сделай выжимку" заставляет нейросеть гадать: вам нужны тезисы? Или пересказ сюжета? Или цитаты? Мой шаблон убирает этот элемент случайности. Он заставляет модель работать как жесткий аналитик данных, игнорируя маркетинговые вступления и фокусируясь только на фактах.
Готовый шаблон промпта для выжимки
Этот промпт спроектирован специально для автоматизации (например, через Make.com), но он отлично работает и при ручном вводе в ChatGPT или Claude. Его фишка — вывод в формате JSON. Это позволяет структурировать ответ так, чтобы его можно было сразу разложить по полочкам: отдельно заголовок, отдельно выводы, отдельно теги.
# РОЛЬ
Ты — профессиональный аналитик данных и редактор. Твоя задача — извлечь ключевую информацию из текста и представить её в строгом формате JSON.
# КОНТЕКСТ И ЗАДАЧА
Проанализируй следующий текст статьи:
"{{ВСТАВЬТЕ_ТЕКСТ_СТАТЬИ_СЮДА}}"
Сделай выжимку, акцентируя внимание на фактических данных, цифрах и выводах. Игнорируй воду, лирические отступления и маркетинговые вступления.
# ИНСТРУКЦИИ ПО СОДЕРЖАНИЮ
1. Заголовок: Придумай короткий, кликбейтный заголовок на русском языке, отражающий суть.
2. Краткая суть (TL;DR): Одно емкое предложение, описывающее главную мысль текста.
3. Основные тезисы: Выдели 3-5 ключевых пунктов (буллитов). Здесь должны быть факты, а не общие слова.
4. Ключевые слова: Список из 3-5 тегов для поиска и категоризации.
5. Тональность: Оцени текст (Позитивный, Негативный, Нейтральный).
# ФОРМАТ ВЫВОДА (СТРОГО JSON)
Верни ТОЛЬКО валидный JSON без markdown-разметки (без ```json). Используй следующую структуру:
{
"title": "Строка с заголовком",
"summary_short": "Строка с главной мыслью",
"key_points": ["Тезис 1", "Тезис 2", "Тезис 3"],
"tags": ["Тег1", "Тег2"],
"sentiment": "Строка с тональностью"
}
Как использовать вручную:
- Скопируйте промпт выше.
- Вставьте его в чат с GPT-4o или Claude 3.5 Sonnet.
- Вместо {{ВСТАВЬТЕ_ТЕКСТ_СТАТЬИ_СЮДА}} вставьте текст статьи.
- Получите структурированный ответ.
Разбор промпта: почему он работает
Давайте вскроем механику этого промпта, чтобы вы понимали логику построения эффективных запросов.
1. Роль (Role)
В промпте: "Ты — профессиональный аналитик данных и редактор..."
Зачем: Мы сразу отсекаем "творческую" личность нейросети. Аналитик не придумывает, он извлекает. Это снижает риск галлюцинаций.
2. Фильтрация контента (Constraints)
В промпте: "Игнорируй воду, лирические отступления и маркетинговые вступления."
Зачем: Это критически важно для бизнес-статей. Нейросети любят пересказывать вступления ("В современном мире..."). Эта строчка заставляет ИИ искать "мясо", а не пережевывать гарнир.
3. Структурированный вывод (Output Format)
В промпте: "Верни ТОЛЬКО валидный JSON..."
Зачем: Это главная фишка. Если вы попросите просто текст, каждый раз форматирование будет разным. JSON — это стандарт передачи данных. Получив ответ в таком виде, вы (или программа) точно знаете, где лежит заголовок, а где теги.
Как автоматизировать этот процесс (Make.com)
Ручной копипаст — это полумера. Настоящая магия начинается, когда этот промпт встраивается в сценарий автоматизации на Make.com. Вот как выглядит схема, которая экономит мне часы работы:
Шаг 1: Триггер (Откуда берем данные)
Я использую модули RSS (для новостных сайтов) или Pocket (для отложенного чтения). Как только там появляется новая статья, сценарий запускается сам.
Шаг 2: Обработка (OpenAI)
Текст статьи летит в модуль OpenAI (Create a completion). В настройках я выбираю модель gpt-4o (она лучше всего держит формат JSON) и вставляю шаблон промпта из этой статьи. Важно включить режим JSON Mode в настройках модуля, чтобы гарантировать чистоту кода.
Шаг 3: Парсинг (JSON Parse)
Make.com получает ответ от нейросети и с помощью модуля Parse JSON раскладывает его на переменные. Теперь у нас есть отдельные "кирпичики": Заголовок, Тезисы, Теги.
Шаг 4: Результат (Куда сохраняем)
Финальный аккорд — отправка данных.
Вариант для Notion: Создается новая страница, где Заголовок идет в Title, Тезисы — в тело страницы, а Теги — в свойство Multi-select.
Вариант для Telegram: Мне приходит сообщение вида: "🔥 [Заголовок]. 👇 Суть: [Краткая выжимка]".
Если хотите узнать, как настроить такую систему пошагово и увидеть скриншоты моих сценариев, Подпишитесь на Telegram-канал. Там я разбираю реальные кейсы автоматизации соцсетей без сложных кодов.
Частые вопросы
Почему именно JSON формат, если я читаю глазами?
Даже для глаз это удобнее. Вы четко видите структуру, а не сплошное полотно текста. Плюс, если вы захотите сохранить саммари в таблицу (Google Sheets или Excel), JSON формат позволит перенести данные по колонкам за секунду.
Какую температуру выставлять в настройках нейросети?
Для задач суммаризации ставьте низкую температуру: 0.2 - 0.4. Нам нужна точность и сухость фактов, а не креативность. Высокая температура может привести к тому, что нейросеть начнет додумывать факты, которых не было в статье.
Что делать, если статья очень длинная?
У моделей есть лимит контекста. Если статья огромная, в автоматизации нужно использовать итератор: разбить текст на части, сделать саммари каждого куска, а потом объединить их. Либо использовать модели с большим контекстным окном, например, Claude 3.5 Sonnet или GPT-4o-128k.
Другие материалы по теме
Собрала систему, которая по текстовому запросу генерирует видео по 10 сек
Как писать статьи в Дзен: пошаговое руководство для новичков
Как легко начать вести соцсети с автоматизацией?
Задачи для делегирования ChatGPT: что он может сделать?
Анализ конкурентов за час: используйте ChatGPT и Make.com
Как избежать распространенных ошибок в промптах
Я больше не пишу посты вручную — но охваты растут, а клиенты сами приходят в личку
Как писать статьи с помощью нейросетей: пошаговое руководство
Эффективное создание контента с ChatGPT за 6 шагов
30 постов за один день: секреты автоматизации контента
Как выбрать нейросеть: топ-4 AI-помощника для любых задач
Как вести соцсети с помощью make.com, чатgpt и миджорни
Создание уникального контента с помощью ChatGPT для начинающих
Причины, почему Pinterest может принести вам клиентов уже завтра
Как ежедневно публиковать до 10 пинов в Pinterest без вашего участия: подробная инструкция