Найти в Дзене

2️⃣ Модели теперь думают, а не просто отвечают

Раньше я писала в промте "проанализируй шаг за шагом" или "сначала подумай, потом ответь". Считала, что помогаю модели структурировать мысли. Оказалось, я мешала. GPT-5.2 и Claude Opus 4.5 работают принципиально иначе. У них есть "бюджет размышлений" - параметр, который регулирует, сколько времени модель потратит на обдумывание перед ответом. Проверяла на задаче сверки контрагентов по стоп-листам. ✨ Простой случай: контрагент есть в базе ФНС, все чисто. В настройках API выставляю reasoning_effort: low - получаю ответ за 2 секунды. ✨ Сложный случай: нужно проверить цепочку связанных компаний, найти бенефициаров, сопоставить с базой дисквалифицированных лиц. Меняю параметр на high - модель думает 7-8 минут, зато находит скрытые связи через три уровня вложенности. Главное открытие: в самом промте достаточно указать цель и ограничения. Не нужно расписывать "сначала проверь это, потом то". Мой промт выглядит просто: Проверь контрагента по всем доступным базам. Если найдешь признаки риск

2️⃣ Модели теперь думают, а не просто отвечают

Раньше я писала в промте "проанализируй шаг за шагом" или "сначала подумай, потом ответь". Считала, что помогаю модели структурировать мысли. Оказалось, я мешала.

GPT-5.2 и Claude Opus 4.5 работают принципиально иначе. У них есть "бюджет размышлений" - параметр, который регулирует, сколько времени модель потратит на обдумывание перед ответом.

Проверяла на задаче сверки контрагентов по стоп-листам.

✨ Простой случай: контрагент есть в базе ФНС, все чисто. В настройках API выставляю reasoning_effort: low - получаю ответ за 2 секунды.

✨ Сложный случай: нужно проверить цепочку связанных компаний, найти бенефициаров, сопоставить с базой дисквалифицированных лиц. Меняю параметр на high - модель думает 7-8 минут, зато находит скрытые связи через три уровня вложенности.

Главное открытие: в самом промте достаточно указать цель и ограничения. Не нужно расписывать "сначала проверь это, потом то".

Мой промт выглядит просто:

Проверь контрагента по всем доступным базам. Если найдешь признаки риска - укажи уровень критичности и источник информации.

Модель сама решает, как рассуждать. А параметр reasoning_effort в коде определяет, сколько времени она на это потратит.

Когда я пыталась детально прописать логику в промте ("шаг 1: извлеки ИНН, шаг 2: проверь в базе..."), точность падала. Модель конфликтовала с моими инструкциями, потому что у нее внутри уже есть оптимальный алгоритм рассуждения.

В статье на arXiv исследователи показали, что для моделей с встроенной цепочкой рассуждений (как o1 от OpenAI) избыточное стимулирование через промт может снижать качество. Модели уже обучены думать правильно - не надо им мешать.

Разделение простое: параметр reasoning_effort в коде управляет временем, промт управляет задачей.

Всем здоровья, мира и добра!

#ИИпромтингв2026.