- Саша, так что в итоге работает лучше: копирайтер, нейросеть или связка?
Этот вопрос я слышал так часто, что в какой-то момент мы в Q2.team перестали спорить на уровне вкусов и решили проверить всё на цифрах. Не на одной-двух статьях, не на “ощущениях редактора”, а на массиве из 300 страниц в разных нишах: услуги, e-commerce, B2B, недвижимость, медицина, финансы, локальный бизнес, инфопроекты.
И результат оказался одновременно ожидаемым и неудобным для всех лагерей сразу. Чистый ИИ почти всегда проигрывал по вовлеченности. Чистый человек чаще делал сильнее по смыслу, но дольше, дороже и не всегда масштабируемо. А лучший рост позиций, поведенческих и глубины прочтения дал гибридный подход. Не магия. Просто нормальная система.
Меня зовут Александр Кабанец, я занимаюсь digital-маркетингом и SEO, основал агентство Q2.team. И вот что я понял после этого исследования: вопрос уже не в том, “можно ли писать с помощью ИИ”. Вопрос в другом - умеете ли вы собирать текст так, чтобы он работал и для алгоритма, и для живого человека.
Почему мы вообще взялись за это исследование
Причина была очень жизненная. С одной стороны, бизнес устал платить за тексты, которые пишутся неделями и потом не дают заметного роста. С другой - рынок захлебнулся в ИИ-контенте. Люди начали публиковать десятки страниц в месяц, а потом удивляться, почему трафик есть, а дочитываний, заявок и нормального роста нет.
У клиентов картина повторялась почти под копирку. Один предприниматель говорил: “Мы загрузили 40 SEO-статей через нейросеть, а позиции сначала дернулись, потом встали”. Другой жаловался, что редакция пишет хорошо, но слишком медленно, и конкуренты просто быстрее занимают выдачу. Третий вообще махнул рукой: “Контент не работает”.
Обычно в таких случаях проблема не в контенте как таковом. Проблема в том, что текст либо написан без редакторской головы, либо сделан вручную, но без нормальной SEO-архитектуры. В одном случае получается гладкий, но пустой пластик. В другом - умный текст, который поисковик плохо считывает по интенту.
Как мы проверяли, кто побеждает
Мы взяли 300 страниц и разделили их на три группы.
Первая группа - тексты, почти полностью написанные человеком. С ручной структурой, экспертизой, редактурой, но без активного использования ИИ в черновике.
Вторая - тексты, сделанные в основном нейросетью. Человеческое участие там было минимальным: проверить факты, чуть поправить стилистику и опубликовать.
Третья - гибрид. Когда ИИ использовался как ускоритель: собрать черновик, вытащить семантику, подсветить пробелы, предложить структуру, варианты подзаголовков, FAQ, переходы. А человек уже добивал материал до состояния, где он звучит живо, держит внимание и не стыдно поставить под именем эксперта.
Мы смотрели не только на позиции. Это было бы слишком просто. Нас интересовали глубина прочтения, поведение на странице, возвраты в выдачу, вовлеченность, CTR заголовков и скорость роста после переиндексации. Потому что в 2026 году просто “влезть в индекс” - это вообще не победа. Победа - когда страница не вываливается и начинает тянуть поведенческие за собой.
Что показал анализ
Если коротко, чистый ИИ проиграл. Не везде в лоб, но в среднем довольно стабильно.
Такие тексты нормально закрывали базовые информационные запросы, быстро индексировались и иногда даже неплохо стартовали. Но потом начинались проблемы. Пользователь заходил, пробегал глазами, чувствовал что-то не то и уходил. Как будто текст правильный, но без пульса. Всё на месте, а читать не хочется.
Это особенно хорошо видно в нишах, где важны доверие, нюансы, личный опыт и нормальная аргументация. Недвижимость, финансы, B2B, медицина, услуги с длинным циклом сделки. Там “средний по палате” ИИ-текст часто проигрывал не потому, что был неграмотным, а потому что был слишком ровным. Без углов, без интонации, без ощущения, что с тобой говорит человек, который реально понимает тему.
Чисто человеческие тексты, наоборот, чаще выигрывали по качеству чтения. Их дочитывали лучше, они дольше держали внимание, в них выше была естественная вовлеченность. Но у них был другой минус - экономика. Они медленнее производятся, дороже обходятся, сложнее масштабируются, а иногда ещё и слишком зависят от одного сильного автора.
И вот тут гибридный формат оказался самым практичным. Не самым романтичным, зато самым эффективным.
Что сработало в гибриде
Сильнее всего росли страницы, где ИИ не заменял автора, а помогал ему ускориться без потери мозга.
Например, мы использовали нейросеть, чтобы быстро собрать первую архитектуру материала, разложить интенты, предложить блоки, найти логические дыры, подготовить варианты FAQ и расширить покрытие темы. Это экономило часы рутинной работы.
А дальше в игру входил человек. Он выкидывал шаблонные куски, добавлял реальные примеры, перерабатывал вступление, усиливал логику, убирал пластиковые формулировки, вставлял живые переходы и дорабатывал смысл. На выходе текст сохранял скорость продакшна, но переставал быть “нейросетевой жвачкой”.
По нашим наблюдениям, именно такие материалы показывали лучший баланс. Они быстрее выходили в прод, лучше росли по позициям и заметно выигрывали по вовлеченности относительно чистого ИИ. И да, именно этот подход мы сейчас чаще всего используем в рабочих процессах внутри агентства. Частично похожую логику можно увидеть и в наших проектах на Q2.team, когда важна не просто публикация текста, а результат страницы в поиске и воронке.
Где мы ошиблись по ходу исследования
Без промахов не обошлось. И это как раз самое полезное.
Первая ошибка была на старте. Мы думали, что достаточно просто взять хороший промпт, загрузить семантику, дать нейросети “правильную структуру” - и она начнет стабильно выдавать почти готовый материал. Не начала. Да, черновик получался удобный. Но почти всегда его надо было серьёзно переписывать, иначе текст звучал как аккуратно собранный воздух.
Вторая ошибка - мы недооценили заголовки и первый экран. ИИ часто делает заголовки “правильными”, но не цепляющими. Формально всё по теме, а кликать не хочется. Для Дзена, да и для поиска тоже, это критично. Если заголовок не обещает понятную пользу и не попадает в боль, дальше можно хоть золотой текст написать.
Третья ошибка - в некоторых нишах мы слишком доверяли фактуре, которую предлагала нейросеть. Не в плане грубых выдумок, а в плане полутона. Формулировка вроде верная, но эксперт бы так не сказал. А пользователь это чувствует моментально. Особенно тот, кто уже тратил деньги на SEO, рекламу и “контент, который должен был сработать”.
“Наверное, у вас просто были большие бюджеты”
Нет. И в этом как раз главный вывод.
Гибрид победил не потому, что “можно нанять и автора, и редактора, и аналитика, и AI-специалиста, и всем раздать бюджеты”. Он победил потому, что убирает лишние потери. Не нужно заставлять дорогого специалиста тратить часы на черновую механику. И не нужно надеяться, что нейросеть внезапно начнет чувствовать аудиторию лучше живого человека.
Другой частый скепсис звучит так: “В нашей нише всё сложнее, у нас это не сработает”. На практике как раз в сложных нишах гибрид особенно полезен. Потому что там цена ошибки в тексте выше. ИИ помогает быстрее собрать каркас и не забыть важные SEO-элементы. А человек отвечает за доверие, нюансировку и адекватную подачу.
Было и стало
Если перевести всё это на простой язык, картина такая.
Чистый ИИ давал скорость, но чаще проседал по дочитыванию и качеству вовлечения. Чистый человек делал сильный продукт, но тормозил по производству и стоимости. Гибрид давал ощутимо более ровный рост: страницы быстрее запускались, лучше удерживали внимание и стабильнее набирали позиции в среднесрочном периоде.
Для бизнеса это значит очень простую вещь. Вам не нужно выбирать религию. Не надо становиться фанатом “только людей” или “только нейросетей”. Надо строить процесс, где технология ускоряет эксперта, а не подменяет его.
Кстати, именно поэтому я всё чаще советую смотреть не на сам факт использования ИИ, а на редакционную систему целиком: кто собирает семантику, кто задаёт интент, кто отвечает за фактуру, кто редактирует финал. Потому что проблема почти никогда не в инструменте. Проблема в руках и в процессе. На Q2.team мы это видим регулярно: один и тот же инструмент в плохом процессе даёт мусор, в хорошем - рост.
Что я бы взял себе в работу прямо сейчас
Первое - перестал бы публиковать чистой нейросетевой массой всё подряд, особенно на коммерческих страницах и в экспертных темах.
Второе - перестал бы романтизировать “ручную работу ради ручной работы”. Если ИИ экономит 40% времени на черновике, это не преступление. Это здравый смысл.
Третье - ввёл бы обязательную человеческую доработку там, где важны доверие, поведенческие, дочитывание и конверсия.
Четвёртое - оценивал бы текст не только по “уникальности” и наличию ключей, а по тому, дочитывают ли его, цепляет ли он первый экран и помогает ли странице расти после индексации.
Пятое - смотрел бы на контент как на систему. Не “давайте напишем 20 статей”, а “давайте построим процесс, где каждая страница делает свою работу”.
Что это исследование изменило лично для меня
Раньше я относился к ИИ скорее как к быстрому помощнику для рутинных задач. Теперь смотрю на него спокойнее и прагматичнее. Он не автор и не замена экспертизе. Но он очень хороший ускоритель для сильной команды.
И, честно, главный мой вывод даже не про тексты. Он про иллюзию простых решений. Бизнесу всё время продают кнопки: “запустите нейросеть”, “наймите дорогого редактора”, “залейте больше SEO-страниц”. Но рост почти всегда приходит не от кнопки, а от сборки системы.
А у вас как? Вы уже пробовали отдавать тексты на ИИ, писать всё вручную или смешивать оба подхода - и что в итоге реально сработало лучше?
Александр Кабанец, эксперт в digital-маркетинге, основатель агентства Q2.team