Нередко вижу скептические высказывания в адрес нейросетевого текстопроизводства: интернет заполонили шаблонные, бездушные, неинтересные тексты, сразу видно, что писал ИИ, этого слишком много, сколько можно халтурить, и так далее.
В чем правы критики? Массовый контент от распространённых языковых моделей действительно страдает предсказуемостью и сухостью. Как так получилось, что самые совершенные нейросетевые модели, обученные на триллионах токенов, миллионах сайтов и миллиардах страниц, по стилю и ощущению пишут примерно на уровне ЭВМ конца 1980-х – середины 1990-х: ровно, корректно, логично, но «без искры», безжизненно, словно это инструкция к пылесосу «Электроника»?
Чтобы понять, почему так вышло, нужно заглянуть в «пещеру Алладина», где эти модели обучались. Правда заключается в том, что современные языковые модели обучали не на романах Набокова и не на письмах Цветаевой. Их кормили интернетом. А 99 % интернета — это даже не «контент», а чистый, концентрированный трафик: посты для галочки, технические описания, новости, переписанные три раза, комментарии «+1», гайды «Как стать миллионером, ничего не делая», и миллиарды страниц корпоративных сайтов с шаблонными текстами про «инновации и синергию».
Модель — это то, что она «съела». Она съела канцелярит, техническую документацию и SEO-оптимизированную пустоту. Она выучила, что «хороший текст» — это тот, который информативен, нейтрален и безопасен. Её «ровность» — это не признак мастерства, а признак усреднения. Это голос не писателя, а голос статистики: среднее арифметическое всего, что было написано человечеством в интернете за последние 30 лет. А среднее арифметическое, как известно, всегда скучно.
Но что нам делать, как заставить нейросеть писать интересно? Я полагаю, что для этого нужно перестать впадать в две крайности: составлять слишком простые промпты и составлять слишком «правильные» промпты.
О «простоте». Во-первых, нужно понимать, что нейросеть может писать интересно. Современные языковые модели способны на удивительное: они улавливают тонкие стилистические нюансы, понимают иронию, генерируют оригинальные метафоры. Более того, они придумывают цитаты классиков, которых никогда не существовало в природе, и которые не каждый специалист отличит от оригинала (да, это о проблеме «галлюцинаций»). То есть с фантазией-то у нейросетей всё в порядке.
Проблема в том, что мы сами не просим языковую модель писать интересно. Большинство пользователей обращаются к языковым моделям с простейшими, примитивными запросами: «Напиши статью про пользу воды», «Сделай пост для страницы в ВК о скидках». И получают ровно то, что заказали: безликую, выхолощенную, усредненную информационную «жвачку».
О «правильности». Однако есть и другой подход — составление промптов «по правилам». Казалось бы, подход прямо противоположный «простому» подходу, но который приводит к схожему результату — безликому, усреднённому тексту. Этому подходу учат практически практически все, за редким исключением, сайты и эксперты, специализирующиеся в области ИИ.
Подход предлагает руководство по составлению промптов:
1. Задай роль
2. Опиши объект
3. Укажи стиль и тон
4. Добавь контекст и ограничения
5. Запроси итерации или уточнения
И что в итоге? Получаем текст, который идеально следует инструкции: ровно структурированный, с нужным количеством подзаголовков, в заданном стиле, и который читать неинтересно. Почему? Потому что такой промпт — это как рецепт борща по ГОСТу: все по пунктам, но вкус как из фабричной банки. Модель не просто следует правилам, она выполняет 33 пункта инструкции: думает о том как соответствовать «роли», ищет описания предмета описания, особенностей стиля, тона, контекста.
Мы перегрузили модель инструкциями, заставили её думать не о том, ЧТО сказать, а о том, КАК соответствовать. Она тратит свой «интеллект» не на поиск интересной мысли, а на сверку с контрольным списком: «роль — есть, объект — описан, тон — соблюдаю». Выходит грамотно, правильно, но мертво.
«Важно отметить, в современном мире, в эпоху цифровизации, широкий спектр, ряд преимуществ, формирует фундамент, революционный, трансформационный, уникальный...» Если в промпте нет явного запрета на эти конструкции (а чаще всего его нет), модель почти гарантированно вставит 4–8 таких фраз даже в короткий текст на 300–500 слов, что «убьёт» наш текст окончательно.
Как же найти золотую середину между простотой («напиши что-нибудь») и переусложненностью («действуй по пунктам 1.1–1.33»)?
Как объяснить нейросети, что мы хотим не «правильный» текст, а живой, не «информационный», а интересный? Предлагаю рецепт решения этой проблемы, «золотой промпт», не самый короткий, не самый простой, но и не длинный, который можно легко запомнить
и использовать в любой языковой модели.
«Используя информацию из интернета и следующие данные напиши текст (статью, заметку, пост для соцсети). Данные: [Вводим тему или краткую скопированную информацию об интересующей теме (начало статьи из Википедии, заголовок новостной ленты, тезис выступления или просто свой черновик)].
Дважды проверяй даты и факты. Избегай концеляризмов и штампов. Пиши познавательно, логично и интересно».
Наш «золотой промпт» готов.
Нормально работает в DeepSeek, ChatGPT, Gemini, Claude Sonnet, Qwen. В других моделях не проверял.
Почему именно эта комбинация слов работает лучше, чем подробные технические задания на три экрана? Секрет в том, что мы не ограничиваем модель в творчестве, а ограничиваем её в пороках.
Мы не говорим ей: «Представь, что ты писатель с 20-летним стажем». Для модели это просто ещё один шаблон, который она будет имитировать так же бездушно, как и любой другой. Вместо этого мы даём ей конкретные запреты и одну высокую цель.
Фраза «Избегай канцеляризмов и штампов» — это самый важный фильтр. По умолчанию нейросеть стремится к безопасному усреднению. Она любит слова-паразиты современного делового стиля: «является», «осуществляется», «в рамках». Запрещая их, мы заставляем модель искать синонимы, живые обороты, человеческие интонации. Мы вынуждаем её «потеть», подбирая слова, а не выгружая готовые блоки.
Требование «Дважды проверяй даты и факты» — это якорь. Оно не гарантирует стопроцентной точности (все-таки это языковая модель, а не поисковик), но оно переключает режим генерации с «фантазирование» на «ответственность». Модель начинает осторожнее оперировать утверждениями.
А установка «Пиши познавательно, логично и интересно» — это лицензия на творчество. Мы не загоняем текст в рамки структуры «заголовок-введение-тело-вывод». Мы говорим о качестве восприятия. Если текст будет сухим, он не будет интересным. Если будет хаотичным — не будет логичным. Это задание заставляет модель балансировать между формой и содержанием самостоятельно, используя свои скрытые возможности, которые обычно сковываются как кандалами многоступенчатыми инструкциями.
Всего 3 правила вместо 33, и результат меняется кардинально. Почему? Потому что мы наконец-то перестали лезть в «творческую кухню» нейросети и начали оценивать только конечный продукт. Мы не учим её, как писать, мы говорим ей, что нам не нравится в результате. Это принципиально иной подход.
О чем нужно помнить, применяя
«золотой промпт»?
Во-первых, качество «Данных», которые вы вставите в промпт, напрямую влияет на результат. Если вы скормите модели мусор, она выдаст красиво оформленный мусор. Принцип «garbage in, garbage out» никто не отменял.
Во-вторых, даже «золотой промпт» не превращает нейросеть в волшебную палочку. Вы по-прежнему остаётесь главным редактором. Нейросеть предлагает вариант, черновик, основу. Но окончательное решение, звучит ли текст по-человечески, принимаете только вы.
Попробуйте этот подход уже сегодня. Вы увидите, что жизнь есть даже в инструкции к пылесосу «Электроника», а за маской бездушного робота скрывается вполне сносный рассказчик, которому просто слова не давали сказать по-человечески.
Рекомендую к прочтению:
Делитесь своим мнением, ставьте лайки, подписывайтесь на канал Герои Истории – разнообразный историко-информационный канал на Дзен. Вы найдёте, что у нас почитать.