Файл robots.txt — это текстовый файл, в котором содержаться инструкции для поисковых роботов, в частности каким роботам и какие страницы допускается сканировать, а какие нет. Как проверить работу файла robots.txt в Яндекс.Вебмастер В Яндекс.Вебмастер в разделе «Инструменты→ Анализ robots.txt » можно увидеть используемый поисковиком свод правил и наличие ошибок в нем. Также можно скачать другие версии файла или просто ознакомиться с ними. Чуть ниже имеется инструмент, который дает возможно проверить сразу до 100 URL на возможность сканирования...
Пока вы читаете эту статью, роботы поисковых систем уже осматривают тысячи веб-страниц в поиске новой информации. Но каким образом они знают, какие страницы сканировать, а какие нет? Ответ прост: файл robots.txt. Robots.txt — это текстовый файл, который позволяет управлять тем, как поисковые роботы (или «пауки») взаимодействуют с вашим сайтом. Он буквально показывает поисковым системам, куда им можно лезть на вашем сайте, а куда категорически нельзя. Для чего нужен robots.txt? Файл robots.txt только кажется малозначительным текстовым документом в огромном объёме настроек сайта...