Найти в Дзене

Простой язык vs технический код: что ИИ понимает лучше (спойлер: не то)

Неделю назад наткнулся на форум промпт-инженеров, где обсуждали «правильную терминологию для ИИ». Один участник утверждал: «Нужно использовать технические термины, чтобы модель поняла точно. Например, вместо "сделай текст ярче" пишите "увеличь emotional_valence и sensory_specificity"». Звучит умно. Но работает ли? Проверил в мультичате Сабка ПРО: дал GPT-5, Claude 4.5 Sonnet и Gemini 2.5 Pro одну задачу в двух формулировках — технической и естественной. Результат удивил: естественный язык не просто работал не хуже — он работал лучше. Технические термины сбивали модели с толку, а простые описания давали точный результат. Когда нейросети только появились, разработчики действительно использовали технический язык — потому что работали через API с явными параметрами: temperature=0.7, top_p=0.9, presence_penalty=0.6. Эти настройки требовали точных терминов. Но современные LLM обучены на человеческих текстах — статьях, книгах, форумах, чатах. Они видели миллиарды примеров естественного языка
Оглавление

Неделю назад наткнулся на форум промпт-инженеров, где обсуждали «правильную терминологию для ИИ». Один участник утверждал: «Нужно использовать технические термины, чтобы модель поняла точно. Например, вместо "сделай текст ярче" пишите "увеличь emotional_valence и sensory_specificity"». Звучит умно. Но работает ли?

Проверил в мультичате Сабка ПРО: дал GPT-5, Claude 4.5 Sonnet и Gemini 2.5 Pro одну задачу в двух формулировках — технической и естественной. Результат удивил: естественный язык не просто работал не хуже — он работал лучше. Технические термины сбивали модели с толку, а простые описания давали точный результат.

Откуда взялся миф о «языке ИИ»

Когда нейросети только появились, разработчики действительно использовали технический язык — потому что работали через API с явными параметрами: temperature=0.7, top_p=0.9, presence_penalty=0.6. Эти настройки требовали точных терминов.

Но современные LLM обучены на человеческих текстах — статьях, книгах, форумах, чатах. Они видели миллиарды примеров естественного языка и научились понимать контекст, нюансы, метафоры. «Сделай текст эмоциональнее» для них так же понятно (а часто понятнее), чем «повысь emotional_valence до 0.8».

Проблема в том, что многие копируют стиль технических промптов из примеров API-документации, думая, что это обязательно. Подробнее о том, почему промпты работают не как инструкции, я писал ранее.

Эксперимент: технический vs естественный язык

Дал трём моделям в Sabka Pro задачу написать описание нового фитнес-приложения. Две версии промпта:

Версия 1: Технический язык

«Создай маркетинговый текст с параметрами: contrast_amplification (до/после), sensory_specificity=0.85, call_to_action_intensity=0.75, social_proof_integration=enabled»

Результат (усреднённо):
Все три модели выдали либо непонятные ответы, либо проигнорировали «параметры». GPT-5 попытался интерпретировать термины, но получилось искусственно. Claude 4.5 Sonnet спросил, что такое «contrast_amplification» (хотя должен был генерировать, а не спрашивать). Gemini 2.5 Pro выдал обычный текст, будто параметров не было.

Версия 2: Естественный язык

«Напиши текст для фитнес-приложения. Покажи яркий контраст: каким был человек до использования и каким стал после. Используй конкретные детали (цифры, ощущения). В конце — мягкий призыв к действию. Добавь отзыв реального пользователя»

Результат:
Все три модели выдали отличные тексты с чётким контрастом «было/стало», конкретными метриками («сбросил 8 кг за месяц»), чувственными описаниями («чувствую лёгкость в теле»), призывом к действию и отзывом. Точное попадание в задачу (проверено на практике).

Разница очевидна: естественный язык даёт контекст, технический — только формальные метки, которые модель не всегда умеет обрабатывать.

Когда технические термины полезны

Есть три ситуации, где технический язык действительно помогает:

1. Работа с API и параметрами

Если вы используете API напрямую, термины temperature, max_tokens, top_p — обязательны. Это не для модели, это для системы, которая передаёт параметры.

2. Объяснение механики (не для генерации)

Если хотите понять, как работает нейросеть, спросите: «Что такое attention mechanism?» Здесь технические термины уместны, потому что вы не ставите задачу, а запрашиваете знания.

3. Уточнение в узкоспециализированных областях

«Используй алгоритм QuickSort для сортировки массива» — здесь технический термин нужен, потому что в программировании «QuickSort» имеет точное значение, а «быстрая сортировка» — слишком обобщённо.

Но даже в этих случаях можно обойтись естественным языком: «Отсортируй массив максимально быстро, используя алгоритм с разделением на части» — модель поймёт, что нужен QuickSort или аналог.

Когда естественный язык лучше (почти всегда)

Для 95% задач естественный язык работает эффективнее по трём причинам:

Причина 1: Больше контекста

«Сделай текст эмоциональнее» даёт модели свободу выбора: добавить восклицания, метафоры, личные истории. «Увеличь emotional_valence» — слишком абстрактно, модель не знает, как именно это реализовать.

Причина 2: Нюансы и оттенки

«Текст должен быть профессиональным, но не скучным» — тонкий баланс. Технически это выразить сложно: «formality=0.7, engagement=0.8»? Модель не поймёт. А естественное описание даёт чёткий вектор.

Причина 3: Обучающие данные

Нейросети тренировались на человеческом языке, а не на технических параметрах. Фраза «напиши как Хемингуэй» для них понятнее, чем «sentence_length=short, adjective_density=low». Кстати, об этом я писал в статье про роли и паттерны.

Причина 4: Гибкость

Естественный язык позволяет итерировать. «Сделай ещё эмоциональнее» → «Теперь чуть сдержаннее» → «Вот так идеально». С техническими параметрами пришлось бы каждый раз вычислять точные значения (оценочно).

Практические рекомендации

Правило 1: По умолчанию — естественный язык
Пишите так, как объяснили бы задачу коллеге. «Напиши статью про кофе, чтобы читатель захотел его купить» работает лучше, чем «marketing_intent=0.9, persuasion_level=high».

Правило 2: Конкретика важнее терминов
❌ «Используй высокую sensory_specificity»
✅ «Опиши запах кофе, текстуру пенки, звук кофемашины»

Второе даёт модели конкретные примеры, а не абстрактный параметр.

Правило 3: Избегайте псевдотехнических терминов
«Emotional_valence», «contrast_amplification» — это не настоящие параметры LLM. Это выдуманные термины из статей. Нейросеть не знает, что с ними делать. Подробнее о том, как
ИИ на самом деле обрабатывает запросы, я писал отдельно.

Правило 4: Техника «как будто»
Вместо технических терминов используйте аналогии: «Напиши так, будто объясняешь пятилетнему ребёнку» работает отлично. «Simplification_level=max» — не работает.

Вывод: Нейросети обучались на человеческом языке, а не на техническом жаргоне. Простые, конкретные описания работают эффективнее псевдопараметров. Не пытайтесь говорить «на языке ИИ» — говорите на своём. Модель поймёт.