Первая часть статьи. Не хотите разбираться во всей этой хрене, обращайтесь к нам и получите бесплатный тест нашей системы! Управление файлом robots.txt Файл robots.txt содержит набор директив, позволяющих управлять индексацией сайта. Он позволяет указывать поисковым системам, какие каталоги, страницы сайта или файлы должны присутствовать в поиске, а какие — нет. Вот основные правила использования этого файла. В файле robots.txt поисковый робот проверяет наличие записей, начинающихся с поля User-agent. Данная директива определяет робота поисковой системы, к которому относится это конкретное правило индексирования сайта. В описании адресов на сайте можно использовать квантор (wildcard) «*», он подразумевает «любую последовательность символов» и используется для обозначения префикса или суффикса пути до каталога или страницы по сайту (или вообще всего пути). Внутри директивы User-agent возможно использование следующих правил. В зависимости от поисковых систем часть директив могут разл
Технические факторы SEO ранжирования: часть вторая
24 апреля 202024 апр 2020
2254
2 мин