Найти тему

Как собрать семантическое ядро сайта: от "А" до "Я"

Оглавление

У некоторых людей словосочетание "семантическое ядро" вызывает благоговейный трепет, у других - дрожь и ужас, третьи вообще его впервые слышат. Давайте разберемся - что это такое, с чем его едят и как его собрать. Отдельно я запишу видео, где повторю все то, что расскажу здесь.

Сначала - семантика - что оно такое

Известно, что все гениальное до безобразия просто. Так и с семантикой - по сути - это просто набор (список) ключевых слов и фраз, по которым ваш сайт ранжируется (показывается) в выдаче поисковых систем.

Помните, когда мы с вами выбирали оптимальную нишу для сайта - вбивали в вордстат вводные запросы и смотрели кол-во показов. Вот этот список ключей которые в левом столбце и есть составляющие части семантики:

Ключевые фразы в Яндекс вордстате
Ключевые фразы в Яндекс вордстате

Обратите внимание! Количество показов НЕ равно количеству ключевых слов в тематике, это совершенно разные значения.

Само собой - яндекс.вордстат это не единственный источник ключевых слов для составления полной семантики: есть еще подсказки, другие поисковики, конкуренты и прочее - чуть ниже все узнаете!

Весь полученный список ключевых слов нужно будет почистить, отсортировать, сгруппировать. Об этом всем по порядку далее.

Чем собирать

В публикации сколько нужно денег для создания доходного сайта я рассматривал несколько вариантов. Далее я буду рассказывать все на примере работы программы Key Collector. На сегодняшний день она стоит 1800 рублей (это пожизненная лицензия "навсегда"). Если вы считаете, что это дорого - можете использовать бесплатную урезанную альтернативу с интересным названием. Собрать более-менее полный список вы сможете и при помощи нее, но группировать и чистить придется вручную в екселе.

Первичная настройка Key Collector

После установки и активации программы, нужно ее базово настроить. Скорее всего вы уже встречались с некоторыми умельцами, которые дают несколько часовые видео только по настройке.

Мы такого не делать не будем) Такие точечные манипуляции с настройками нужны только если вы работаете с коммерческими тематиками, где каждый ключ имеет стоимость и вес. Для "информационной" семантики это просто потеря времени. От того, что вы будете 3 часа настройки, чтобы в итоге получить 7 новых ключей - оно того не стоит.

Подготовительные работы

  1. Создаем новый аккаунт в Яндексе, сохраняем логин и пароль.
  2. Создаем новый аккаунт в гугле и очень важно: создаем рекламную кампанию для любого сайта (можете взять какой-нить новостник из выдаче) в ads.google.com. Обратите внимание: пополнять ничего не нужно! Просто создать кампанию на 1 объявление (чтобы дало создать без пополнения - выберите "экспертный" режим).
  3. Регистрируемся в антикапче - ссылка, пополняем на 1$ (должно хватить на небольшую семантику).

Вот и вся подготовка.

Какие изменения вносим в настройки

Включаем Кей коллектор (далее - КК), заходим в настройки. Вначале на вкладку "Яндекс.Direct" - вписываем созданный выше логин и пароль от яндекс аккаунта:

Вносим данные яндекс аккаунта
Вносим данные яндекс аккаунта
Отмечу, что не стоит использовать свой основной аккаунт - за парсинг (массовое обращение к поиску) аккаунты иногда банят - не самое лучшая ситуация, если это ваш основной аккаунт, не так ли?

Теперь вводим, как это ни странно, данные google аккаунта:

Вводим данные гугла
Вводим данные гугла

Осталось ввести данные антикапчи. Проверьте только чтобы стоял чекбокс возле "использовать Antigate". Ключ берете в своем кабинете капчи:

Настраиваем антикапчу
Настраиваем антикапчу

Для любителей скорости: можете зарегить несколько аккаунтов яндекса, тогда скорость парсинга будет кратно выше (кратно количеству аккаунтов) и тогда тут нужно будет увеличить кол-во потоков парсинга:

Увеличиваем потоки
Увеличиваем потоки

А если и этого мало или второй вариант - в вашей стране нельзя пользоваться Яндексом (да бывает и такое), понадобится использовать прокси. Данные прокси вносятся там же где вы вносили данные яндекс аккаунтов. Я пользуюсь проксями от этого сервиса, вы можете использовать какие нравятся - главное уточняйте у продавца, подходят ли они под КК. Если используете такой вариант, не забудьте проверить все что внесли вот этой кнопкой:

Проверяем аккаунты и прокси - после проверки все должно стать зелененьким
Проверяем аккаунты и прокси - после проверки все должно стать зелененьким

Вроде все, можно переходить непосредственно к сбору семантики.

Парсинг семантики

Дальше я буду показывать все по очереди, чтобы все было понятно. Но на самом деле все что ниже можно запускать параллельно. Итак, для примера я соберу небольшое семантическое ядро по вводному ключевому слово "новогодний декор". Внимательные сразу скажут что этот ключ не подходит ни по объему ни по сезонности по критериям выбора ниши - все верно, я взял специально небольшой ключ, просто "чтобы показать".

Для понимания - парсинг большой ниши на 10-100 тысяч запросов и более может занять несколько дней, даже если используется несколько аккаунтов и потоков.

Парсинг Яндекса

Первым делом жмем "пакетный сбор из левой колонки Яндекс":

Начинаем сбор семантики
Начинаем сбор семантики

В открывшемся окошке вводим все вводные ключевые слова в столбик. У меня только одна вводная ключевая фраза, ее и вписываю:

Вписываем все вводные ключи. Каждая фраза - с новой строки
Вписываем все вводные ключи. Каждая фраза - с новой строки

Жмем "начать сбор" и ждем: в зависимости от объема ниши, кол-ва аккаунтов/прокси парсинг может занять от нескольких минут до дня и больше (ну это уже говорил выше). Текущий статус можно отслеживать внизу в вкладках "статистика" и "журнал событий":

Тут можно отследить сколько ждать и нету ли ошибок
Тут можно отследить сколько ждать и нету ли ошибок

По завершении парсинга в центральной колонке появятся полученные ключевые слова, отмеченные соответствующим значком (значком того, что именно собиралось):

Часть собранной семантики из Яндекса
Часть собранной семантики из Яндекса

Проводим аналогичную процедуру для гугла:

Кнопка парсинга с Google
Кнопка парсинга с Google

Ровно также вписываем базовые ключи, жмем "начать сбор" и ждем:

Вводим данные для парсинга гугл
Вводим данные для парсинга гугл

Далее нужно спарсить подсказки. Подсказки - это дополнительные фразы в выдаче - когда вы вводите какой-либо запрос, поисковик сразу предлагает кучу вариантов:

Пример подсказок в выдаче Яндекса
Пример подсказок в выдаче Яндекса

Вот собственно их и собирает КК.

Жмем кнопку сбора поисковых подсказок:

Собираем подсказки
Собираем подсказки

Проверяем, чтобы стояли 3 чекбокса и вводим вводные ключевые фразы:

Вводные данные для сбора подсказок
Вводные данные для сбора подсказок

Запускаем, ждем, получаем еще ключей.

Первичная чистка

Теперь у нас есть некий список (скорее всего объемом в несколько тысяч ключей) - пришло время провести его чистку. Вначале пройдемся по так называемым стоп-словам.

Это слова, которые точно не относятся к нашей тематике и которых точно не должно быть ни в одном нашем запросе, например: "купить, скачать, торрент, заказать, дешево и тп.". Жмем соответствующую кнопку на панели:

-17

В открывшемся окошке добавляем списком запросы:

-18
Обратите внимание: не переусердствуйте! При помощи стоп-слов легко "убить" всю семантику, задав неверное слово, которое может быть составной частью большинства ваших ключей. Вписывайте только явно "мусорные" запросы!

Затем жмем "отметить фразы в таблице":

-19

Они отметятся и их можно перенести в корзину:

-20

Обратите внимание: я рекомендую делать именно перенос в корзину, а не удаление. Этот маленький лайфхак окажет хорошую помощь - в дальнейшем он исключит добавление фраз-дублей, которые уже есть в корзине и сразу снимет с вас часть работы (дальше мы еще будем добавлять фразы - и вот то что уже в корзине - повторно не добавится, соответственно не нужно будет опять проверять/чистить).

Далее - почистим наш список по частотности. Не имеет смысла работать с ключевыми запросами, частотность которых составляет менее 10 запросов в месяц (по точному вхождению).

Данные собираем при помощи кнопки "яндекс.директа":

-21

После того как данные соберутся, у вас заполнится соответствующий столбец:

-22

Теперь удалим все фразы с частотностью от 9 и ниже. Удобней всего это сделать при помощи фильтра:

-23

Выбираем "частота "!"", меньше или равно 9 - жмем применить. В таблице будут показаны все фразы с частотой от 9 и ниже. Теперь в первом столбце мы выделяем всех их:

-24

И переносим в корзину.

Дальше почистим наш список на неявные дубли. Неявные дубли это одни и те же фразы, но написанные с разным порядком слов. Например, для моей вводной фразы "новогодний декор" неявным дублем будет "декор новогодний".

В чем их опасность? Есть вероятность что разные статьи в итоге у вас получатся под одни и теже ключи и будут между собой конкурировать, есть вероятность что вы выберите не тот "дубль" и вместо ключа с частотой например 1000+ возьмете ключ с частотой 100+.

Для того, чтобы убрать их - жмем соответствующую кнопку в панели (нужно переключится на вкладку "данные"):

-25

Обратите внимание: поначалу у вас тут будут нули:

-26

Соответственно выбрать корректные для удаления дубли невозможно. Чтобы исправить это делаем такие процедуры:

1. Отмечаем все неявные дубли вот этой кнопочкой:

-27

2. В общей таблице выбираем "показ только отмеченных фраз" - для этого жмем фильтр - Is cheked - истина:

-28

Отобразятся только отмеченные фразы. Теперь нам нужно собрать по ним частоту по маске !QUERY - выбирается это сверху:

-29
Обратите внимание - очень важно выбрать "только is cheked" - если не сделать этого, query начнет проверятся для всего ядра, а делается оно супер медленно - и это может в итоге занять несколько недель беспрерывного анализа (без шуток!)

После сбора вновь заходим в "анализ неявных дублей" и жмем кнопку "умная отметка":

-30

Как видите, отметились все фразы с минимальной частотой и остались невыделенными фразы с большей частотой. Соответственно отмеченные фразы можно смело переносить в корзину. Сделаем это.

Чистка при помощи анализа групп

Следующим этапом мы проведем чистку нашего ядра, используя инструмент "анализ групп". Что он делает - он, по заданному типу группировки (составу фраз, поисковой выдаче, отдельным словам) раскидывает все наши оставшиеся после чисток ключей на логические группы. Благодаря этому мы можем выбрать и удалить явно не относящиеся к нашей тематике фразы (причем сделать это сразу скопом, а не выискивать их по одной). В моем примере вот несколько групп, которые явно про коммерцию - их можно смело удалять:

-31

Проверяем весь наш пулл ключей, используя разные варианты группировки (по составу фраз, по поисковой выдаче и пр.):

-32

Все неподходящие ключи отмечаем и переносим в корзину. Затем переходим к самой небыстрой части - проверки оставшихся ключей в ручном режиме. Т.е. в столбце "фраза" вы ключ за ключом прочитываете каждый - проверяете - соответствует ли он вашей тематике, не является ли он "мусорным" или "коммерческим":

-33

Это не быстро - но напомню, что ядро - это основа сайта, если тут сделать спустив рукава - дальше будет все плохо (как при постройке дома - от крепости и правильности фундамента зависит все, так и тут).

Добавление ключей с сайтов-конкурентов

Это очень желательный, но не обязательный пункт - тк он требует покупки подписок на специализированных сервисах, позволяющих этот самый парсинг конкурентов сделать.

Но если вы хотите прям полностью максимальное ядро - сделать стоит.

Итак, выгрузку дополнительных слов будем проводить из www.bukvarix.com и www.keys.so. Что делаем: и там и там вводим вводные ключевые слова и закидываем в наш проект.

В буквариксе мне дало почти 5000 слов:

Но чтобы их скачать - нужно будет покупать подписку
Но чтобы их скачать - нужно будет покупать подписку

В кейс.со - инструменты - дополняющие фразы. Получаем 12.000+ вариантов!

-35

Создаем в КК новую группу "Конкуренты" и закидываем туда весь список слов (и с букварикса и с кейс.со) - также затем его чистим, и после чистки - переносим в общую группу и уже потом приступаем к следующему шагу - кластеризации.

Кластеризация семантического ядра

Вот мы и добрались до самой хардовой части - кластеризации семантики. Давайте начнем с того, что разберемся что оно такое. Попробую объяснить максимально просто.

Кластеризация - это разбивка всего нашего списка ключей на группы (кластеры) на основании данных поисковой выдачи. Каждый получившийся кластер - это список ключей для отдельной статьи. Т.е. если мы разбили наш список на 120 кластеров, значит на сайте у нас будет 120 статей. В кластере может быть любое количество фраз (но не менее 2х).

Давайте попробуем посмотреть на примере: итак, есть пара похожих фраз - "новогодний декор из бумаги", "как сделать новогодний декор из бумаги".

Как узнать - они должны быть все в одной статье (в одном кластере) или под каждый запрос нужно писать отдельную статью? Для этого заходим в поисковую выдачу и смотрим результаты - и ищем одинаковые домены (сайты) в выдаче. В моем примере:

Там еще ниже по этому запросу есть burda (в скрин не влез)
Там еще ниже по этому запросу есть burda (в скрин не влез)

По второму запросу:

-37

Мы видим что 3 URL одинаковы. Это дает нам все основания предполагать, что поисковик относит данные ключевые запросы к одному кластеру и их нужно использовать в одной статье.

Можно перепроверить через Google также само.

Вот таким образом проверяются все запросы и выясняются какой к какому кластеру отнести.

"Постойте!", скажите вы - это мы проверили 2 ключа и уже нехило времени. А как же проверить несколько тысяч ключей - это ж десятилетие уйдет! oO

Все верно - вручную это маразм делать (хотя возможно и некоторые безумцы делают)). Мы же воспользуемся возможностями нашего КК.

Заходим вновь в анализ групп - по составу фраз и поисковой выдаче - сила по составу и serp - 3:

-38

3 обозначает сколько URL должно быть одинаковых в выдаче, чтобы отнести запросы к одному кластеру (то что мы делали выше вручную).

КК быстро (почти моментально) пропарсит выдачу и разобьет нам все наши ключи по кластерам. Теперь нам нужно их проверить и вынести в отдельные группы.

Вот например - проверяем группу - все ОК, мусора нет, ключи все по теме - выделяем чекбоксом все ключи, нажимаем правую кнопку и выносим ключи в отдельную группу при помощи соответствующего пункта меню:

-39

В итоге, у нас постепенно формируются все кластеры семантики:

-40

Таким образом мы проходим все наши ключи - в "группе по умолчанию" должен остаться 0.

Подведем итог

Вот зачем оно нужно
Вот зачем оно нужно

Итак, составление семантического ядра - это один из самых объемных этапов работ над созданием доходного сайта. И при этом один из самых важных.

Можно выделить 3 варианта составления семантики:

  1. Лайт - парсится только Яндекс, гугл, подсказки. Без конкурентов, в один круг.
  2. Стандарт - парсится Яндекс, Гугл, Подсказки + выгружаются конкуренты, в один круг.
  3. Хард (максимально полное и качественное ядро) - парсится Яндекс, Гугл, Подсказки - затем, в соответствии с инструкцией ключи чистятся и потом этот чистый список ключей запускается в виде вводных слов на второй круг парсинга! Это в десятки раз увеличит объем ядра, но охватит все возможные ключи. И вот уже после второго круга добавляются выгрузки конкурентов, все чистится, кластеризуется.

Какой вариант использовать - решать вам) Я почти все сайты делал по 3му.

Подписывайтесь на мой канал, ставьте лайки, впереди еще много интересного! Если остались вопросы - пишите их ниже, отвечу на все!

p.s. после этой публикации будет еще видео, где все вышеописанное будет продемонстрировано.

#сайты по кийосаки #доходные сайты #заработок на сайтах #сайт для заработка #семантическое ядро #семантика