Споры о том, какой должна быть кластеризация поисковых запросов, при составлении семантического ядра, продолжаются уже не первый год. Одни утверждают, что автоматическая группировка фраз полностью справляется с поставленной задачей, и делает это корректно. Другие уверяют, что без ручного вмешательства, а то и полностью ручной группировки, критичных ошибок не избежать. В данной статье не будет сравнения результатов работы этих двух методов, речь пойдет только об автоматической кластеризации - группировке на основе поисковой выдачи.
Непонятно откуда такое недоверие к сервисам и их инструментам в то время, когда они помогают в работе и позволяют делать ее быстрее. Семантикой я занимаюсь уже более трех лет, изучив за этот период множество материалов по теме, хотел бы отметить, что большая часть «интернет-деятелей» (с которыми приходилось общаться) скептически относится к автоматической группировке.
Если кто не знает принципа такой группировки, то происходит она так:
- Робот собирает в выдаче ТОП 10 url для каждой ключевой фразы.
- Если в выдаче находятся общие url для двух запросов, то эти запросы отправляются в одну группу.
На основе полученных данных можно составить семантическую структуру сайта, подготовить ТЗ для копирайтеров, присвоить запросы к конкретным страницам (если мы расширяем ядро). Если вы вообще не понимаете, о чем речь, то посмотрите руководство.
Как проверить эффективность автоматической группировки?
Многие утверждают, что данный метод можно применять в работе, но не в таком виде, в котором нам выдают его программы и сервисы. Следует руками все равно проверить и скорректировать итоговые группы. А что если ничего не делать руками вообще? Что если мы просто загружаем фразы, жмем «кластеризовать» и работаем с тем, что получится? Чтобы понять, насколько такой подход эффективен - нужно было создать сайт. Показатель трафика - отличный параметр, который укажет на ту самую «эффективность автоматической группировки». Сказано - сделано!
Примечание: речь идет о кластеризации на основе поисковой выдачи для контентных (информационных) сайтов.
Параметры сайта на старте:
- Домен - свежерег.
- Дизайн - уникальный.
- Мобильная версия - нет.
- HTTPS - нет.
- Контент - 10 новостей (рерайт).
- Конкуренция - средняя.
- Ниша - узкая.
- Тематика - мужская.
Читайте также: Поиск ниши для сайта
История основного ВЧ запроса по Wordstat
Собрав семантическое ядро получился список из 1115 ключевых фраз, после чего файл был отправлен на кластеризацию в Rush Analytics.
Настройки проекта:
Чем выше вы выберите показатель точности, тем меньше запросов будет сгруппировано, соответственно, во вкладку «некластеризовано» попадет больше ключей. Для работы я выбрал документ с точностью 4. Это значит, что среди моих ключевых фраз робот искал 4 общих url, для определения запросов в одну группу. У меня вышло 746 сгруппированных фраз (около 120 статей) и 369 некластеризованных.
Вот собственно и все. Автоматическая кластеризация запросов делается быстро, и от вас ничего не требуется во время сбора данных.
Следующим этапом было написание небольшого ТЗ и изготовление контента с дальнейшей его публикацией.
Первая статья была размещена зимой 2015/2016 года, а последняя в конце 2016 года. Порядка 65% материала написали за первые три месяца, остальное публиковалось ежемесячно небольшими порциями, для регулярного обновления сайта.
Читайте статью полностью: Можно ли доверять автоматической кластеризации?