Резкое падение трафика — довольно неприятное событие, и в этом случае главное — как можно быстрее найти и исправить проблему, особенно это касается коммерческих сайтов, для которых даже неделя с низким трафиком означает потерю большого количества потенциальных клиентов. Robots.txt Что называется — невероятно, но факт: даже такая “мелочь”, как robots.txt может значительно снизить трафик на сайт. Типичный пример — на сайте ведутся работы, разработчики могут случайно закрыть сайт от индексирования. В таком случае большая часть трафика теряется очень быстро. Необходимо проверить robots.txt вручную. Воспользуйтесь сервисом “Яндекс Вебмастер” или “Google Search Console” — там можно посмотреть, закрыт ли конкретный URL от индексации. Проверка на фильтры поисковых систем Проверить можно в “Google Search Console” в разделе “Меры, принятые вручную” (и не забудьте посмотреть сообщения — веб-мастеров обычно уведомляют при появлении спамного контента, накрутке большого количества внешних ссыло
