Неделю назад наткнулся на форум промпт-инженеров, где обсуждали «правильную терминологию для ИИ». Один участник утверждал: «Нужно использовать технические термины, чтобы модель поняла точно. Например, вместо "сделай текст ярче" пишите "увеличь emotional_valence и sensory_specificity"». Звучит умно. Но работает ли?
Проверил в мультичате Сабка ПРО: дал GPT-5, Claude 4.5 Sonnet и Gemini 2.5 Pro одну задачу в двух формулировках — технической и естественной. Результат удивил: естественный язык не просто работал не хуже — он работал лучше. Технические термины сбивали модели с толку, а простые описания давали точный результат.
Откуда взялся миф о «языке ИИ»
Когда нейросети только появились, разработчики действительно использовали технический язык — потому что работали через API с явными параметрами: temperature=0.7, top_p=0.9, presence_penalty=0.6. Эти настройки требовали точных терминов.
Но современные LLM обучены на человеческих текстах — статьях, книгах, форумах, чатах. Они видели миллиарды примеров естественного языка и научились понимать контекст, нюансы, метафоры. «Сделай текст эмоциональнее» для них так же понятно (а часто понятнее), чем «повысь emotional_valence до 0.8».
Проблема в том, что многие копируют стиль технических промптов из примеров API-документации, думая, что это обязательно. Подробнее о том, почему промпты работают не как инструкции, я писал ранее.
Эксперимент: технический vs естественный язык
Дал трём моделям в Sabka Pro задачу написать описание нового фитнес-приложения. Две версии промпта:
Версия 1: Технический язык
«Создай маркетинговый текст с параметрами: contrast_amplification (до/после), sensory_specificity=0.85, call_to_action_intensity=0.75, social_proof_integration=enabled»
Результат (усреднённо):
Все три модели выдали либо непонятные ответы, либо проигнорировали «параметры». GPT-5 попытался интерпретировать термины, но получилось искусственно. Claude 4.5 Sonnet спросил, что такое «contrast_amplification» (хотя должен был генерировать, а не спрашивать). Gemini 2.5 Pro выдал обычный текст, будто параметров не было.
Версия 2: Естественный язык
«Напиши текст для фитнес-приложения. Покажи яркий контраст: каким был человек до использования и каким стал после. Используй конкретные детали (цифры, ощущения). В конце — мягкий призыв к действию. Добавь отзыв реального пользователя»
Результат:
Все три модели выдали отличные тексты с чётким контрастом «было/стало», конкретными метриками («сбросил 8 кг за месяц»), чувственными описаниями («чувствую лёгкость в теле»), призывом к действию и отзывом. Точное попадание в задачу (проверено на практике).
Разница очевидна: естественный язык даёт контекст, технический — только формальные метки, которые модель не всегда умеет обрабатывать.
Когда технические термины полезны
Есть три ситуации, где технический язык действительно помогает:
1. Работа с API и параметрами
Если вы используете API напрямую, термины temperature, max_tokens, top_p — обязательны. Это не для модели, это для системы, которая передаёт параметры.
2. Объяснение механики (не для генерации)
Если хотите понять, как работает нейросеть, спросите: «Что такое attention mechanism?» Здесь технические термины уместны, потому что вы не ставите задачу, а запрашиваете знания.
3. Уточнение в узкоспециализированных областях
«Используй алгоритм QuickSort для сортировки массива» — здесь технический термин нужен, потому что в программировании «QuickSort» имеет точное значение, а «быстрая сортировка» — слишком обобщённо.
Но даже в этих случаях можно обойтись естественным языком: «Отсортируй массив максимально быстро, используя алгоритм с разделением на части» — модель поймёт, что нужен QuickSort или аналог.
Когда естественный язык лучше (почти всегда)
Для 95% задач естественный язык работает эффективнее по трём причинам:
Причина 1: Больше контекста
«Сделай текст эмоциональнее» даёт модели свободу выбора: добавить восклицания, метафоры, личные истории. «Увеличь emotional_valence» — слишком абстрактно, модель не знает, как именно это реализовать.
Причина 2: Нюансы и оттенки
«Текст должен быть профессиональным, но не скучным» — тонкий баланс. Технически это выразить сложно: «formality=0.7, engagement=0.8»? Модель не поймёт. А естественное описание даёт чёткий вектор.
Причина 3: Обучающие данные
Нейросети тренировались на человеческом языке, а не на технических параметрах. Фраза «напиши как Хемингуэй» для них понятнее, чем «sentence_length=short, adjective_density=low». Кстати, об этом я писал в статье про роли и паттерны.
Причина 4: Гибкость
Естественный язык позволяет итерировать. «Сделай ещё эмоциональнее» → «Теперь чуть сдержаннее» → «Вот так идеально». С техническими параметрами пришлось бы каждый раз вычислять точные значения (оценочно).
Практические рекомендации
Правило 1: По умолчанию — естественный язык
Пишите так, как объяснили бы задачу коллеге. «Напиши статью про кофе, чтобы читатель захотел его купить» работает лучше, чем «marketing_intent=0.9, persuasion_level=high».
Правило 2: Конкретика важнее терминов
❌ «Используй высокую sensory_specificity»
✅ «Опиши запах кофе, текстуру пенки, звук кофемашины»
Второе даёт модели конкретные примеры, а не абстрактный параметр.
Правило 3: Избегайте псевдотехнических терминов
«Emotional_valence», «contrast_amplification» — это не настоящие параметры LLM. Это выдуманные термины из статей. Нейросеть не знает, что с ними делать. Подробнее о том, как ИИ на самом деле обрабатывает запросы, я писал отдельно.
Правило 4: Техника «как будто»
Вместо технических терминов используйте аналогии: «Напиши так, будто объясняешь пятилетнему ребёнку» работает отлично. «Simplification_level=max» — не работает.
Вывод: Нейросети обучались на человеческом языке, а не на техническом жаргоне. Простые, конкретные описания работают эффективнее псевдопараметров. Не пытайтесь говорить «на языке ИИ» — говорите на своём. Модель поймёт.