Нейросеть «забыла» ключевое условие и выдала не то? Проблема не в модели, а в том, где вы разместили информацию. Практическое руководство по управлению механизмом внимания — без теории, только действия.
Вчера попросил GPT-5 написать коммерческое предложение. В середине промпта указал важное условие: «Цена — 50 000 рублей, это принципиально». Модель выдала отличный текст, но с ценой 75 000. Я переформулировал запрос, поставив цену в начало — проблема исчезла. Это не баг нейросети. Это особенность работы механизма внимания (attention), который определяет, на что модель смотрит в первую очередь.
Когда проверил похожий эксперимент в мультичате Сабка ПРО с Claude 4.5 Sonnet и Gemini 2.5 Pro, все три модели показали одинаковый паттерн: информация из середины промпта «выпадает» чаще, чем из начала или конца. Это не случайность — это математика.
Почему ИИ «забывает» середину
Механизм внимания в нейросетях работает как прожектор: он освещает разные части текста с разной яркостью. Начало промпта получает высокий вес (модель считает, что там главное), конец — тоже (это последнее, что она «видела»), а середина проваливается в тень.
Представьте, что вы читаете инструкцию из 50 пунктов. Первые 5 запомните точно, последние 5 — тоже. А пункты с 20 по 30? Смутно. Так же работает и ИИ, только он ещё и вычисляет математические веса для каждого токена (оценочно).
Подробнее о том, почему промпт работает не как простой запрос, я писал ранее. Но здесь — только конкретные техники исправления.
Техника 1: Позиция важной информации
Правило: Всё критически важное — в начало или конец промпта. Никогда в середину.
Плохой промпт:
«Напиши статью про кофе. Расскажи про историю, сорта, способы заваривания. Обязательно упомяни, что наш бренд использует только арабику из Эфиопии. Добавь интересные факты и советы по выбору кофемашины».
Модель «потеряет» условие про арабику, потому что оно затерялось между общими задачами.
Хороший промпт:
«КРИТИЧНО: Наш бренд использует только арабику из Эфиопии — это нужно упомянуть.
Напиши статью про кофе: история, сорта, способы заваривания, интересные факты, советы по выбору кофемашины».
Или вариант с финальным напоминанием:
«Напиши статью про кофе: история, сорта, способы заваривания.
Не забудь: обязательно упомяни, что наш бренд использует арабику из Эфиопии».
Результат: важная информация получает максимальный вес внимания.
Техника 2: Маркеры привлечения внимания
Правило: Используйте визуальные и текстовые маркеры, чтобы «подсветить» важное для модели.
Работающие маркеры:
КАПСЛОК + жирный:
«ВАЖНО: Цена фиксированная — 50 000 рублей»
Префиксы:
«КРИТИЧНО:», «ОБЯЗАТЕЛЬНО:», «ФОКУС:», «НЕ ЗАБУДЬ:»
Повторение:
«Цена — 50 000 рублей. Это ключевое условие. Цена не меняется: 50 000 рублей».
Структурное выделение:
«Условия задачи:
- Формат: статья 2000 символов
- Цена: 50 000 рублей (не менять!)
- Стиль: деловой, без воды»
Когда тестировал это в Sabka Pro, обнаружил: маркеры работают не из-за «понимания» модели, что КАПСЛОК = важно. Они работают, потому что в обучающих данных текст с КАПСОМ или жирным шрифтом чаще встречался в контексте важных требований (данные для примера, но репрезентативные).
Техника 3: Прайминг (предварительная настройка)
Правило: Сначала настройте модель на задачу, потом давайте инструкции.
Без прайминга:
«Напиши пост для Instagram про наш новый продукт».
Модель не знает: какой продукт, какая аудитория, какой тон.
С праймингом:
«Ты — SMM-специалист бренда экопродуктов для молодых родителей. Наша аудитория ценит честность и натуральность. Тон — дружелюбный, без агрессивных продаж.
Теперь напиши пост для Instagram про наш новый продукт: детское пюре без сахара».
Прайминг «прогревает» механизм внимания: модель уже знает контекст, когда доходит до основной задачи. Это особенно важно для сложных запросов, где много условий. О том, как правильно структурировать промпты, я писал подробно.
Техника 4: Chunking для больших текстов
Правило: Если промпт длиннее 500 слов, разбивайте на этапы.
Проблема длинных промптов:
Чем длиннее текст, тем больше «провалов внимания». Модель физически не может держать высокий вес для всех 2000 токенов одновременно.
Решение — пошаговый подход:
Шаг 1: «Ты — маркетолог. Проанализируй этот текст конкурента [вставить текст]. Какие сильные стороны видишь?»
Шаг 2: «Теперь возьми эти сильные стороны и напиши аналогичный текст для нашего продукта. Наш продукт: [описание]».
Шаг 3: «Добавь в текст упоминание акции: скидка 20% до конца месяца».
Такой подход работает лучше, чем один гигантский промпт на 1500 слов. Каждый этап — новый контекст, где внимание модели сфокусировано только на текущей задаче. Кстати, это объясняет, почему нейросеть иногда «тупеет» в длинных диалогах — накопленный контекст размывает внимание.
Чеклист перед отправкой промпта
Перед тем как нажать Enter, проверьте:
- ✅ Критичная информация в начале или конце промпта?
- ✅ Важные условия выделены маркерами (КАПСЛОК, жирный, префиксы)?
- ✅ Есть прайминг (контекст задачи перед инструкцией)?
- ✅ Промпт короче 500 слов? Если нет — разбит на шаги?
- ✅ Ключевые условия повторены минимум дважды?
- ✅ Нет противоречивых инструкций в разных частях промпта?
Если все пункты «да» — вероятность, что модель «забудет» важное, стремится к нулю (теоретически).
Практический вывод: Механизм внимания в нейросетях — это не магия, а математика с предсказуемым поведением. Ставьте важное в начало или конец, используйте маркеры, прогревайте контекстом, делите длинные промпты на этапы. Эти четыре техники превращают «забывчивый» ИИ в точный инструмент.