Как убрать некачественные страницы с помощью файла robots.txt?
Думаю, многие уже знают, что алгоритмы поисковых систем сейчас понижают сайты с большим числом некачественных страниц. Связь между падением позиций и ростом некачественных страниц можно увидеть на большом числе сайтов. Давайте разберёмся, как почистить некачественные страницы сайта с помощью файла robots.txt. Сразу оговорюсь, что не все типы страниц можно убрать с помощью этого файла. Но очень многие возможно. А с учетом того, что перезалить файл robots.txt занимает примерно 2 минуты, это один из самых простых способов убрать некачественные страницы...
320 читали · 4 года назад
Как убрать дубли страниц с сайта на WordPress?
Наличие дублей на сайте может легко привести к наложению фильтров поисковыми системами. За дубли применяются достаточно жесткие меры, вплоть до бана на длительный период. Такие ошибки возникают в большом количестве на сайтах, для управления которыми используется CMS WordPress. Объясняется это просто: система генерирует дубли в автоматическом режиме. Чтобы не угодить под санкции поисковиков, необходимо удалять дубли или скрывать их от индексации роботами. Что такое дубли страниц? Популярный движок WP генерирует дубли страниц...