Robots.txt – это один из простейших файлов на вашем сайте. Но в нём же проще всего сделать опасную ошибку. Всего один символ, который стоит не на месте – и ваше SEO летит в тартарары. Поисковики не видят на вашем сайте того, что вы хотели им показать, но прекрасно считывают закрытую информацию. Ваша миссия провалена. Даже опытные SEO-шники иногда допускают такие ошибки, что уж говорить о начинающих. Если вы до сих пор не знаете, как правильно работать с robots.txt, или уже где-то ошиблись и не хотите, чтобы это повторилось, читайте наш разбор...
Когда пользователи обращаются к поисковой системе с запросом, она ищет ответ в базе данных, собранной поисковыми роботами. База состоит из файлов, полученных краулерами в процессе сканирования веб-страниц, другими словами — при индексации сайта. Однако данные некоторых веб-страниц не должны быть общедоступными, например, нельзя допускать индексирования административной части сайта. Чтобы избежать этого, вебмастеру необходимо создать запрет на сканирование отдельных URL-адресов. Поисковые роботы получают рекомендации по «прохождению» веб-ресурса из robots...