Когда нейросети только ворвались в жизнь, я как копирайтер и SEO-оптимизатор почувствовала легкую панику: а не заменят ли они реальных авторов, не перестанут ли тексты помогать поднимать сайты в выдаче? Спустя почти полтора года использования ИИ паника отступила, появились собственные алгоритмы работы с GPT-чатами. Вопрос "использовать или нет?" сменился вопросом "как использовать, чтобы не навредить сайту?", ответ на который время от времени приходится пересматривать.
Что говорят поисковые гиганты?
Для начала разберемся, что принимают за истину веб-мастера и SEO-оптимизаторы. Ключевые тезисы из “Правил Google Поиска в отношении контента, созданного искусственным интеллектом”, опубликованные в 2023 году, все еще актуальны:
- "Наша цель – показывать релевантный, полезный контент, созданный для людей”, – здесь кроется главная мысль: важно – качество контента, а не способ его создания.
- "Автоматически генерируемый контент с целью манипуляции рейтингами в поиске нарушает наши правила”, – и здесь все четко: спам, бессвязный контент, сотни страниц, созданных автоматом в попытке поднять активность, но без цели помочь пользователю, – табу.
- "Мы вознаграждаем высококачественный контент, демонстрирующий E-E-A-T (Опыт, Экспертность, Авторитетность, Доверие)" – здесь снова говорится о качестве и пользе, и не важно, каким путем такой контент произведен.
В мае 2025 года на конференции в Мадриде Google отметил, что теперь к AI-контенту стали относиться строже. Если раньше еще можно было сгенерировать кучу текста и надеяться, что поисковик не заметит, то сейчас такой подход – прямой путь в бан. Google активно борется с шаблонными текстами, которые создают ради SEO, без реальной пользы для читателя. Алгоритмы и люди-оценщики ищут повторяющиеся фразы, шаблонность и отсутствие живого смысла. Если текст – просто набор слов, без глубины и авторского взгляда, сайт неизбежно потеряет позиции.
А что насчет Яндекса? Компания периодически выступает с заявлениями, в которых говорит примерно то же: борьба идет не против ИИ, а за качество. В одном из заявлений Яндекс отметил, что его алгоритмы уже умеют с точностью до 99% находить низкокачественный контент, включая массово сгенерированный ИИ-спам и манипулятивные тексты. Поисковик очищает выдачу от пустого, бесполезного или вводящего в заблуждение контента, независимо от способа его создания. Но если ИИ помогает пилить проверенный, экспертный и полезный контент – шансы на хорошие позиции высоки. Страницы с ним хорошо индексируются (по опыту – быстрее, чем сгенерированные автоматически) и неплохо поднимаются в выдаче.
Итак, главное, что нам транслируют гиганты: бояться нужно не ИИ, а плохого, бесполезного, неоригинального и низкокачественного контента. Кто бы его ни создал.
Эксперимент Nextner: детекторы – врут
Из любопытства (и легкой паранойи) мы прогоняли свои тексты через популярные AI-детекторы – те, что подкидывали поисковики. Играли долго: посмотрели и уже опубликованный у нас контент, и подготовленный другими копирайтерами, и собственные, авторские тексты. И вот что мы заметили:
- Чисто человеческий текст (мой, написанный вот этими руками без всякого обращения к чатам) иногда демонстрировал от 13 до 40 (кошмар!) процентов "искусственности".
- Полностью сгенерированный ИИ текст (запрос в ChatGPT/Deepseek без перепечатывания и правок) обычно распознавался безошибочно и оценивался на 90-100% в пользу ИИ. Здесь – браво!
- Наш рабочий продукт (ИИ-основа + глубокая ручная переработка) показывал “прыгающие” результаты: от 20 до 60% искусственности. Причем нередко сервисы, показывающие высокий процент, подсвечивали совсем не те фразы, что были написаны чатом. Но в целом, здесь ты согласно киваешь: все довольно честно, не поспоришь.
Из эксперимента длиной в месяцы сделан вывод: доверять детекторам на 100% нельзя. Алгоритмы несовершенны, легко обманываются качественной переработкой, но, к сожалению, ошибаются в обе стороны – похвастаться полностью “ручным” текстом получается редко. Зато теперь созданный только чатом текст мы легко распознаем и без анализаторов, потому что хорошо поняли его фишку: +/- стандартная структура, неловкие попытки украшательства, оооочень интересные сравнения, да хотя бы длинные тире! Так что из гонки за хорошими оценками анализатора мы вышли, теперь делаем ставку на честность и добросовестную переработку, а не на попытку "обмануть детектор".
Работа с ИИ в Nextner: GPT как умный помощник
Да, мы активно используем ИИ в работе с контентом, но не полагаемся на него слепо. ИИ – лишь один из инструментов, и этапы работы с ним выглядят примерно так:
- Глубокая настройка запроса: четкое ТЗ, подробно расписанные требования с примерами текстов, которые нравятся; прописывание структуры, семантики – все это пишется вручную.
- Черновик от ИИ для доработки: получаем сырую основу с фактами, построенную структуру (часто – несколько вариантов).
- Жесткая ручная переработка (80% работы) – здесь меняем стиль (у чата, который ты месяцами дрессировал под себя он, как ни крути, будет примерно одним), выпиливаем маркированные списки, которые горячо любит Deepseek, правим лексику, добавляем живые авторские обороты. Проверяем факты: любые названия, любые новые утверждения – ничему нельзя верить! Вставляем примеры и детали, которые известны только нам.
- Анализ результата – проверяем уникальность (по Advego), вычитываем на орфографию и пунктуацию, делаем анализ SEO-составляющей (классической и академической тошноты, количества стоп-слов, процента водности и прочего, тоже в Advego).
- Публикация. Все.
Итак, ИИ для нас – ускоритель сбора информации, генератор идей, помощник в преодолении "чистого листа". Но душа, экспертиза, уникальность и качество – всегда наши, собственные.
Ориентируемся на результат: позиции растут!
Используя гибридный подход, мы создаем полезный, уникальный и релевантный контент. Судя по анализу в Топвизоре созданных за год страниц, можем утверждать, что наш контент вполне отвечает требованиям поисковиков: позиции сайтов наших клиентов стабильно растут, как и видимость.
Например, в этом году в одном из наших проектов по разработке корпоративного сайта компании по ремонту и отделке мы добавили новые разделы с описаниями услуг и расширенным FAQ. Без помощи ИИ не обошлось: где-то он помог собрать идеи, где-то – сделать рерайт, подсказать те же вопросы для FAQ. Все это тщательно перерабатывалось и дополнялось вручную. Результат: страницы постепенно индексируются и стабильно поднимаются в Яндексе и Google. Это доказывает: если использовать ИИ с умом и не забывать про человеческий контроль, можно получить ощутимый результат без риска провалиться на дно выдачи.
В качестве резюме
Какой финал для этой статьи предложил Deepseek? Читаем: “ИИ — это мощный молоток. Можно им разбить себе пальцы (наполнив сайт бездушным спамом), а можно построить крепкий дом (создавая выдающийся контент быстрее)”. Даже тире оставлю неизменным. Любуйтесь. Кажется, это лучшая иллюстрация к нашему тексту – кстати, написанному вручную (а что выдаст ваш анализатор?).
Так вот, если взять метафору с молотком, то мы используем ИИ всего лишь как инструмент мастера, а не как замену самому мастеру. И поисковики, как видите, такой подход приветствуют. Так что пишите качественно, думайте о пользе для читателя – и следите за позициями, внедряя любое изменение.
Ольга Климова