Noindex vs robots.txt: как правильно убирать «мусор» из индекса Часто спрашивают: «Чем закрывать дубли и ненужные страницы — noindex или robots.txt?» Мой подход — сначала noindex, потом robots.txt. Почему? 🔹 robots.txt — это запрет обхода, а не индексации. Google может проиндексировать URL, даже если он запрещён в robots.txt (например, если на него есть внешние ссылки). 🔹 Поэтому я сначала ставлю noindex на всё лишнее: — дубли, — страницы с мусорными GET-параметрами, — служебные разделы и т.п. 🔹 Жду, пока пропадут из отчётов в Google Search Console и Яндекс.Вебмастер и только потом запрещаю их обход в robots.txt. Такой двухэтапный подход полное исключение мусора из индекса, особенно в Google, где robots.txt без noindex может лишь замедлить, но не остановить индексацию.
Noindex vs robots.txt: как правильно убирать «мусор» из индекса
14 декабря 202514 дек 2025
~1 мин