Расскажу об одном из самых важных файлов для SEO оптимизации! В robots.txt задаются параметры, которые служат для поисковых систем, своего рода определенным указаниям. К примеру вы можете закрыть определенные страницы от индексации. Для правильной настройки данного файла используются директивы. К примеру директива User-agent, которая указывается в самом начале, является обязательной для Яндекса. Также, есть директивы, которые разрешают (Allow), либо запрещает (Disallow) индексирование страниц. Список директив для файла robots.txt Как я уже писал выше, для того, что бы дать определенным поисковым роботам указания используют директивы. У каждой поисковой системы, есть свои определенные рекомендации! User-agent Важнейшая директива! Она определяет параметры индексации для конкретных поисковых роботов, либо общие параметры. User-agent: * // для всех ботов
User-agent: GoogleBot // для Google (регистр не важен)
User-agent: YandexBot // для Яндекса
и т.д. Allow и Disallow Allow разрешает инд