Robots.txt - это текстовый файл, который веб-мастеры размещают на своих сайтах для указания поисковым роботам (краулерам), какие страницы должны быть проиндексированы, а какие нет. Зачем нужен robots.txt? Robots.txt позволяет контролировать доступ роботов для сканирования содержания вашего сайта. Он может быть использован для исключения конфиденциальной информации, временных страниц, дубликатов контента и страниц с низкой ценностью. Также он может помочь регулировать частоту паука и предотвратить перегрузку сервера. Пример использования User-agent: * Disallow: /private/ Disallow: /temp/ Allow: /articles/ Crawl-delay: 5 В данном примере все роботы запрещены индексировать страницы в директориях "private" и "temp", но разрешено индексирование страниц в директории "articles". Также установлена задержка в 5 секунд между запросами. ~~Неправильное использование robots.txt~~ может привести к тому, что важные страницы вашего сайта не будут проиндексированы, или наоборот - конфиденциал