Помню то утро, когда один мой знакомый предприниматель позвонил в панике. Его интернет-магазин спортивного питания вдруг перестал получать клиентов из поисковых систем. Трафик (поток посетителей) упал до нуля за неделю. «Я ничего не менял на сайте!» — повторял он в трубку. Такие истории случаются в российском онлайне чаще, чем кажется. Сайт работает месяцами, приносит стабильные продажи, а потом резко исчезает из результатов поиска. И часто причина кроется в небольшом файле с названием robots.txt — настоящем «привратнике» вашего сайта. Robots.txt — это файл-инструкция для поисковых роботов. Он лежит в корне сайта и говорит Яндексу или Google, какие страницы индексировать можно, а какие — нельзя. Звучит просто, но дьявол кроется в деталях. Файл работает как охранник на входе в офисное здание. Только вместо того, чтобы проверять пропуски, он читает список «кого пускать, а кого нет». И если в этом списке ошибка — посетители просто не попадут туда, куда нужно. За годы работы я видел десятк
Почему robots.txt закрывает не то, что нужно — и как это диагностировать
16 апреля16 апр
3 мин