При сборе Семантического Ядра (особенно когда идет его расширение) мы собираем запросы с разных источников, как правило мы вытаскиваем из разных баз и сервисов списки ключей, скидываем все найденное в один "котел", далее снимаем по ним частотности, отсеиваем мусор и группируем.
При таком подходе по нашему СЯ обычно собирается очень много так называемых неявных дублей - это поисковые запросы, которые состоят из одних и тех же слов, но при этом некоторые слова у них размещены в разном порядке:
Только в этом примере из 30 ключей оригинальных будет только 11
Держать все 30 шт нет абсолютно ни какого смысла, в разы лучше будет сконцентрировать свое внимания и усилия на уникальных 11 шт, от остальных нужно избавляться.
Как это сделать в Семантическом Ядре, где тысячи запросов?
- Закидываем наше СЯ в Key Collector и снимаем точную частотность ("!") - именно по ней мы будем среди всех таких неявных дублей находить и оставлять более высокочастотные, а от менее частотных будем избавляться
- В Key Collector идем на вкладку "Данные", выставляем аналогичные скрину настройки и жмем "Выполнить умную групповую отметку" - по сути мы отмечаем те, которые и нужно удалить.
- Если у вас эти неявные дубли уже были в собранном, разгруппированном и структурированном СЯ, вы про них поздно вспомнили и только сейчас решили почистить, выгружаем эти отмеченные дубли в Excel, ставим им во второй колонке пометку "дубль" и далее функцией ВПР в Excel подтягиваем эту пометку по СЯ