Если у вас просел трафик с поиска, большинство сразу начинают:
«Алгоритмы поменялись», «Конкуренты подтянулись», «SEOшник что-то не дотягивает».
Иногда это правда.
Но очень часто реальность гораздо приземлённее: сайт на Битрикс технически развален так, что поисковику просто неудобно с ним работать.
Я захожу на проект, открываю админку, логи, код — и через полчаса уже вижу, где вы зарыли органику.
Давайте пройдусь по типичным техкосякам Битрикс-проектов, из-за которых вы теряете поисковый трафик, даже если у вас классный контент и нормальное SEO.
1. Дубли страниц: когда один товар живёт в десяти урлах
Первая любимая боль — куча дублей:
- /catalog/tovar1/
- /catalog/tovar1/?utm_source=yandex
- /catalog/?ELEMENT_ID=123
- /catalog/section1/tovar1/
- и ещё парочка вариантов через фильтры и сортировки
Для пользователя — вроде тот же товар.
Для поисковика — разные страницы, которые конкурируют друг с другом.
Чем это заканчивается:
- размазанный вес по куче дублей;
- непредсказуемые урлы в выдаче;
- проблемы с переездом и редиректами.
Что я делаю:
- настраиваю нормальные ЧПУ в инфоблоках (без ?ID=123 во фронте);
- ставлю 301-редиректы со всех «старых» и параметрических урлов на один канонический;
- аккуратно работаю с фильтрами:
закрываю технический мусор от индексации, оставляю только нужные комбинации.
Дублей быть не должно. Никаких «ну ладно, пусть живут, не мешают» — мешают, ещё как.
2. Фильтр каталога, который плодит SEO-ад
Битриксовский умный фильтр — мощная штука.
Но если его отпустить на самотёк, он начинает штамповать:
- тысячи страниц с параметрами;
- с нулевым контентом;
- с одинаковыми заголовками и текстами.
Поисковик заходит, видит:
1000 страниц «Кроссовки – страница 1», где меняться может только цена да пара спецпредложений.
Вы пытаетесь продвигать «кроссовки для бега», а у вас под этот запрос 50 почти одинаковых URL.
Что я делаю:
- определяю, какие комбинации фильтров реально нужны как посадочные (бренд, тип, важные характеристики);
Для этих комбинаций настраиваю:
- внятные ЧПУ;
- уникальные заголовки и тексты;
- нормальные мета-теги;
- всё остальное:
- либо закрываю от индексации (noindex, nofollow, правила в robots);
- либо режу количество параметров, доступных для формирования URL.
Фильтр должен быть инструментом, а не машиной по штамповке мусорных страниц.
3. Каноникалы, которые стоят «для галочки» или сломаны
Канонический URL — то, что вы показываете поисковику как «главную» версию страницы.
На Битрикс этим часто занимаются по принципу: «галочку поставили — и ладно».
Типичные косяки:
- каноникал всегда ведёт на главную (/), потому что «так проще»;
- каноникал указывает на урл без ЧПУ, хотя индексироваться должен ЧПУшный;
- на фильтровых страницах каноникал ведёт на раздел, но при этом вы хотите эти фильтровые продвигать.
Итог: поисковик получает противоречивые сигналы, часть страниц вылетает из индекса, часть не набирает вес.
Что я делаю:
Настраиваю корректную генерацию rel="canonical" для:
- карточек товаров;
- разделов;
- нужных посадочных под фильтры;
- проверяю руками и через логи индексирования: всё ли бьётся с вашей SEO-стратегией;
- убираю «универсальные» костыли вроде: «давайте всё канонизировать на один URL, так безопаснее». Это не безопаснее, это самоубийство.
4. robots.txt и sitemap: «закрыли всё, что не надо… и пару нужных вещей заодно»
Ещё один классический бардак:
- в robots.txt закрыты важные разделы, потому что когда-то «так посоветовал знакомый SEOшник»;
- файлы sitemap генерируются как попало — половины нужных урлов там нет;
- нигде не отражены новые разделы / поддомены / языковые версии.
Плюс, в Битрикс любят:
- поднимать тестовый стенд, забывать закрыть его от индексации;
- запускать поддомены, которые начинают конкурировать с основным сайтом.
Что я делаю:
- разбираю robots.txt по строкам:
убираю устаревший бред, который живёт там годами; - перенастраиваю генерацию sitemap:
- только нужные разделы и типы страниц;
- без мусора, без дублей;
- актуальные урлы;
- обязательно закрываю тестовые / дев-окружения от индексации.
robots и sitemap — это не планы на завтра, которые можно накидать и забыть. Это рабочие документы для поисковика.
5. Медленные страницы: когда поисковику физически тяжело вас ползать
Гугл и Яндекс не хотят тратить кучу ресурсов на сайт, где каждая страница:
- генерируется по 3–5 секунд;
- тащит по 100 запросов к базе;
- грузит мегабайты лишнего JS и картинок.
Медленный сайт = меньшее «краулинговое бюджетирование».
По-простому: вас реже и хуже сканируют.
Что делаю я:
- прогоняю ключевые страницы через замеры скорости (и не только фронт, но и серверное время ответа);
- нахожу тяжёлые компоненты и убираю/кеширую их;
- оптимизирую картинки и статические ресурсы;
- вычищаю мусорный JS, который тащится на все страницы подряд.
Ускорение — это не только «чтобы пользователю было приятно», это ещё и прямо про индексацию.
6. Ошибки 404, битые ссылки и старый мусор
У Битрикс-проектов богатая история:
что-то удалили, что-то перенесли, что-то «временно отключили»…
Но никто не посмотрел, что:
- часть урлов до сих пор в индексе и ведёт в 404;
- часть разделов перенесена без нормального 301-редиректа;
- старые рекламные кампании всё ещё гонят трафик на несуществующие страницы.
Поисковику такое не нравится.
Пользователям — тем более.
Что я делаю:
- собираю список 404-страниц из логов сервера, веб-мастеров и аналитики;
- группирую эти урлы и настраиваю массовые редиректы на актуальные страницы;
- проверяю, чтобы 404 давалась только там, где это реально «мёртвый» контент, а не «мы ленились настроить переезд».
Чем меньше у вас битых следов прошлого, тем спокойнее живёт сайт в поиске.
7. Как я обычно подхожу к просадке трафика на Битрикс
Когда ко мне приходят с запросом «упал трафик, посмотри, что там с Битриксом», я не начинаю с гаданий и не сваливаю всё на «алгоритмы».
Я:
- Смотрю аналитику: где именно просело — какие разделы, типы страниц, устройства.
- Сверяю это с техкартиной:
- менялись ли урлы;
- не ломали ли ЧПУ/фильтры;
- не правили ли шаблоны, robots, sitemap.
3. Делаю технический SEO-аудит именно под Битрикс:
- дубли, каноникалы, фильтры, скорость, структура инфоблоков.
4. Собираю список техисправлений: от самых критичных (которые убивают индекс и трафик) до «косметики».
После этого разговор с владельцем бизнеса звучит уже не так:
«Ну там магия SEO, сложные времена».
А так:
«У вас:
– вот тут дубли,
– вот здесь фильтр всё засоряет,
– вот здесь редиректы не настроены,
– а вот здесь сайт просто не успевает обслужить ни пользователя, ни робота.
Чиним в таком порядке: 1, 2, 3. Вот прогноз по эффекту».
И дальше это уже не «что-то с SEO не так», а вполне конкретный план действий, после которого трафик перестаёт утекать через технические дырки.