Если вы хоть немного интересовались seo-продвижением вашего сайта, то наверняка слышали дубли страниц, и про то, что от них надо избавляться. Все это является важной частью технической оптимизации сайта, которую необходимо провести прежде, чем вы приступите к самому продвижению. Иначе КПД вашей работы может быть очень низким. Вы будет вкладывать силы и деньги, а выхлоп будет ноль целых, хрен десятых…
Откуда берутся дубли страниц
Иногда возникает логичный вопрос, а откуда берутся дубли страниц, если я не создавал никакого дублирующего контента? А вариантов тут может быть достаточно много. Я перечислю только небольшую часть, когда дубли могут появляться естественным способом без вашего участия. Примеры буду приводить на основе сайта интернет-магазина.
- URL со слешем в конце и без;
- Дополнительные параметры и метки в URL;
- Фильтры, сортировка, пагинация (постраничная навигация) в каталоге;
- Похожие друг на друга страницы и т.д.
Даже разница в один символ в URL адресе страницы воспринимается поисковыми системами как совершенно другой адрес. Если вы поставили какую-то галочку в фильтре, изменили сортировку, или перешли на следующую страницу каталога, то в адресную строку добавились разного рода переменные. Все, теперь для поисковика – это совершенно другая страница. При этом наполнение страниц изменилось незначительно. Остались те же мета теги «title» и «description», остался тот же заголовок «h1», тоже описание каталога и т.д. Это и есть дублирующий контент, который пачками генерирует ваш сайт. Чем больше у вас категорий, товаров и характеристик (свойств), тем больше дублей.
Чем опасны дубли страниц
Может возникнуть второй логичный вопрос, чем же опасны эти дубли? Ведь по логике вещей, чем больше страниц проиндексировано, тем больше шансов что одна из этих страниц попадет в результаты выдачи. Но, увы, это работает немножечко по-другому. Поисковик под каждый конкретный запрос пользователя показывает одну конкретную страницу с одного сайта. Он выбирает наиболее релевантную на его взгляд. А все остальные страницы он исключает как дублирующие, чтобы они ему не мешали. И какую он выберет – это воля случая и хитросплетения алгоритмов. Он может запросто выбрать последнюю страницу каталога с установленными фильтрами.
И если у вас в каталоге стоит сортировка от меньшей цены к большей, то на последней станице будут самые дорогие товары. У клиента может сложиться впечатление, что тут все очень дорого, и он быстро сайт покинет. Ухудшив поведенческие факторы, которые сегодня очень важны. Это в свою очередь даст сигнал поисковой системе, что сайт не интересен пользователю. И она начнет занижать сайт в результатах выдачи. Потому как заинтересована в том, чтобы показывать максимально полезные сайты пользователям.
Алгоритмы сегодня не совершенны. И давая поисковой системе самой решать, какую страницу из дублей ей показывать, вы можете сами себе ставить палку в колеса!
Как найти дубли страниц на сайте
Возникает третий логический вопрос, а как же найти эти дубли у себя на сайте? Вариантов тут может быть несколько. Показывают наличие дублей страниц инструменты, которые напрямую связаны с поисковыми системами Яндекс и Google – это Яндекс Вебматер и Google Search Console.
А также проверить на дубли можно при помощи сторонних сервисов, которые вы можете найти в интернете. Я не буду указывать конкретные ссылки, т.к. периодически все меняется. И сегодня популярны одни, а завтра другие… Но в подавляющем большинстве случаев достаточно вышеперечисленных. Вам главное понять основные типы страниц, которые дублируются.
Как убрать / удалить дубли страниц
Ну и после того, как найден дублирующий контент, нужно убрать (удалить) эти лишние страницы из индексации. Достигнуть желаемого результата можно тремя самыми распространёнными способами:
- Закрыть от индексации ненужные страницы в файле robots.txt. Закрыв также ненужные для индексации параметры и метки.
- Прописать канонические страницы (ссылки) там, где это необходимо. Например, страницы с пагинацией. Указав приоритетной (канонической) первую страницу каталога.
Рекомендую, если не разбираетесь во всем этом, доверить работу профессионалам. В противном случае можно и навредить правильной индексации сайта.
А дальше, нужно через какое-то время проверить сайт еще раз, на наличие дублирующего контента. Грубо говоря, правильно ли вы все сделали. Процесс переиндексации для молодых сайтов может быть, увы, не очень быстрым. Наберитесь терпения!