10 лет работы с SEO научили меня: техническая оптимизация — фундамент успеха. Сегодня разберем директиву, которая сэкономит краул-бюджет и избавит от дубликатов. 🤔 Проблема: почему один контент = 100 URL? Типичная ситуация: Для аналитики — разные источники. Для робота Яндекса — три разных страницы с одинаковым контентом. Последствия: 💡 Решение: директива Clean-param Это команда в robots.txt, которая говорит Яндекс.Роботу: «игнорируй указанные параметры, они не меняют содержание страницы». ⚠️ Важно: директива работает только в Яндексе. Для Google используйте rel="canonical". 🛠 Синтаксис: пишем правильно Базовый формат: Clean-param: параметр[&второй_параметр] /путь Разберем по частям: Примеры масок: 🚀 Практика: готовые решения Пример 1. UTM-метки для всего сайта User-agent: Yandex
Clean-param: utm_source&utm_medium&utm_campaign / Робот преобразует:
site.com/services?utm_source=yandex → site.com/services Пример 2. ID сессии только в корзине User-agent: Yandex
Clean-param: sid /cart/