Ускоряем обход сайта поисковыми роботами У каждого сайта есть свой краулинговый бюджет - лимит на обход страниц на сайте поисковым роботом за определенный промежуток времени. Чтобы робот не тратил свои ресурсы на обход ненужных технических и мусорных страниц, можно их закрыть 3 способами: 1. Закрыть url таких страниц в robots.txt Страницы, закрытые таким путем выпадают из обхода. Минусы метода: 2. Закрыть внутренние ссылки атрибутом rel="nofollow" Атрибут nofollow позволяет поисковым системам указать, что переходить по ссылки не нужно. Сами поисковые системы рекомендуют такой способ: Яндекс и Google. Минусы метода: 3. Закрыть страницы мета-тегом "noindex" Страницы, содержащие такой тег - перестанут индексироваться. Минусы метода: Комбинация robots.txt + rel="nofollow" + meta "noindex" Такой подход позволяет убрать из обхода страницы ненужные сайта. Пример К примеру, страница интернет-магазина с параметрами сортировки. Что происходит после закрытия внутренних ссылок в rel=nofollow? Если
Зачем скрывать внутренние технические ссылки атрибутом rel=nofollow?
29 ноября 201829 ноя 2018
194
2 мин