Думаю, многие уже знают, что алгоритмы поисковых систем сейчас понижают сайты с большим числом некачественных страниц. Связь между падением позиций и ростом некачественных страниц можно увидеть на большом числе сайтов. Давайте разберёмся, как почистить некачественные страницы сайта с помощью файла robots.txt. Сразу оговорюсь, что не все типы страниц можно убрать с помощью этого файла. Но очень многие возможно. А с учетом того, что перезалить файл robots.txt занимает примерно 2 минуты, это один из самых простых способов убрать некачественные страницы. Итак, самые частые типы страниц, которые можно исключить с помощью файла robots.txt: 1. Страницы каталога с фильтрами. Обычно такие страницы формируются через GET-параметры в url. Пример такого URL: https://домен/каталог/?производитель=Бренд1&Размер=XL Удалить можно с помощью директив Disallow или Clean-param (последнее предпочтительнее для Яндекса). 2. Страницы добавления товаров в корзину. Обычно такие страницы имеют вид: https://доме
Как убрать некачественные страницы с помощью файла robots.txt?
12 октября 202112 окт 2021
12
2 мин