Бич современного SEO - это поголовные дубликаты страниц и текстов внутри сайта. Явление встречается абсолютно на всех CMS, включая платные и бесплатные. Выпиливается только умелыми руками и, в основном, при помощи доработок, хотя иногда хватает robots.txt, meta noindex или canonical.
Дублирование страниц или текстов приводит к проблемам определения релевантных страниц сайта поисковыми системами. Из-за этого позиции могут резко проседать или вовсе пропадать из поиска. При массовом наличии дубликатов сайт может целиком уйти под фильтр, так как поисковикам это проще, чем пытаться понять, как его ранжировать.
Сюда же попадают технические страницы, к примеру, корзина с уникальным ID или другие страницы, на которых нет текстов. Их необходимо скрывать от поисковых роботов, тем самым, исключая вероятность их индексации.
Виды дубликатов и методы борьбы с ними:
1. Дубликаты главной страницы: чаще всего это вызвано техническими ошибками на сайте (существует страница /index.php или с другим расширением, неверно обрабатываются параметры в адресе страниц, особенно вида /?1111, криво настроена обработка ошибок 404 и т.п.) или неверными настройками сервера (сайт доступен по pop.vash-site.ru и другим поддоменам). Найти дубликаты легко, достаточно в Яндексе в кавычках забить 6-8 слов из контента и зайти на все найденные поисковиком страницы сайта.
2. Дубликаты внутренних страниц: вызваны в основном техническими ошибками на сайте и устраняются путем правильной обработки параметров в адресах или внедрением ЧПУ. Легче всего искать в Яндексе через Title страницы, при условии, что он уникальный в рамках сайта. Если у вас на сайте используются адреса страниц с сессиями, то в лучшем варианте избавьтесь от них, а если невозможно, то закройте в robots.txt или через meta noindex.
3. Фильтры, сортировки, поиск, страницы для печати: всегда закрывайте результаты от поисковиков, если они генерируют новые адреса страниц.
4. Тексты в шаблоне: это могут быть новости, спецпредложения, отзывы, тексты в футере или шапке и т. п., которые вы хотите отображать на всех страницах сайта. Если это просто ссылки или баннеры, то такой вариант допустим, если же это текстовые блоки, то лучше будет их скрыть в коде через JS-скрипты от поисковиков: в таком случае посетители будут их видеть, а поисковые роботы - нет.
5. Превью и краткие описания: проблема рождается от лени, когда идет частичное дублирование контента с основной страницы на разделы. Решения два - либо делать уникальные краткие описания, либо скрывать их через js-скрипты на страницах разделов.
6. Страницы пагинации: особенно актуально для интернет-магазинов, где есть списки товаров в разделах, которые разбиваются по страницам, при этом целиком дублируются тексты и заголовки. Устраняется через использование тега canonical, meta noindex, follow или через robots.txt
Изначально заложите в вашу CMS функции, которые позволят избежать дубликатов страниц и текстов. Это на старте позволит поисковым системам корректно и быстро индексировать ваш сайт, а в будущем вы избежите проблем с резкой сменой релевантных страниц и падением позиций.
Вернуться к содержанию SEO-курса
Мои услуги:
Консультации по SEO от 75000 р.
Продвижение сайтов от 75000 р.
Разработка сайтов под SEO от 600000 р.
Форма для связи на сайте: blagih.ru
Алексей Благих
Оригинал статьи: https://webimho.ru/topic/11846/