Robots.txt – это один из простейших файлов на вашем сайте. Но в нём же проще всего сделать опасную ошибку. Всего один символ, который стоит не на месте – и ваше SEO летит в тартарары. Поисковики не видят на вашем сайте того, что вы хотели им показать, но прекрасно считывают закрытую информацию. Ваша миссия провалена. Даже опытные SEO-шники иногда допускают такие ошибки, что уж говорить о начинающих. Если вы до сих пор не знаете, как правильно работать с robots.txt, или уже где-то ошиблись и не хотите, чтобы это повторилось, читайте наш разбор...
Файл robots txt для сайта и его правильная настройка является одной из базовых вещей для технической части SEO-продвижения. Цель у этого файла одна – управлять процессом сканирования сайта поисковыми системами (на основе «Стандарта исключений для роботов»). С его помощью не удастся полноценно управлять индексацией (и лучше не пытаться – приведет к ошибкам). Основные возможности файла – это рекомендации для поисковиков, какие страницы и URL следует сканировать, а какие не стоит. При этом важно заметить – «рекомендации», а не «команды»...