391 читали · 3 года назад
Как закрыть страницы от индексации в файле robots.txt: пошаговая инструкция
Файл robots.txt — это текстовый файл, в котором содержаться инструкции для поисковых роботов, в частности каким роботам и какие страницы допускается сканировать, а какие нет. Как закрыть страницы сайта от индексации через robots.txt Disallow запрещает индексацию отдельной страницы или группы (в том числе всего сайта). Чаще всего используется для того, чтобы скрыть технические страницы, динамические или временные страницы. Пример #1 # Полностью закрывает весь сайт от индексации User-agent: * Disallow:...
1899 читали · 5 лет назад
Настройка индексирования. Какие страницы закрывать от поисковых роботов и как это лучше делать
Каким бы продуманным не был сайт, он всегда будет иметь страницы, нежелательные для индексации. Обработка таких документов поисковыми роботами снижает эффект SEO-оптимизации и может ухудшать позиции сайта в выдаче. В профессиональном лексиконе оптимизаторов за такими страницами закрепилось название «мусорные». На наш взгляд этот термин не совсем корректный, и вносит путаницу в понимание ситуации. Мусорными страницами уместнее называть документы, не представляющие ценности ни для пользователей, ни для поисковых систем...