Найти в Дзене

Падает трафик с поиска. Технические ошибки Битрикс, которые тихо убивают ваш SEO

Если у вас просел трафик с поиска, большинство сразу начинают:
«Алгоритмы поменялись», «Конкуренты подтянулись», «SEOшник что-то не дотягивает». Иногда это правда.
Но очень часто реальность гораздо приземлённее: сайт на Битрикс технически развален так, что поисковику просто неудобно с ним работать. Я захожу на проект, открываю админку, логи, код — и через полчаса уже вижу, где вы зарыли органику.
Давайте пройдусь по типичным техкосякам Битрикс-проектов, из-за которых вы теряете поисковый трафик, даже если у вас классный контент и нормальное SEO. Первая любимая боль — куча дублей: Для пользователя — вроде тот же товар.
Для поисковика — разные страницы, которые конкурируют друг с другом. Чем это заканчивается: Что я делаю: закрываю технический мусор от индексации, оставляю только нужные комбинации. Дублей быть не должно. Никаких «ну ладно, пусть живут, не мешают» — мешают, ещё как. Битриксовский умный фильтр — мощная штука.
Но если его отпустить на самотёк, он начинает штамповать: Поис
Оглавление

Если у вас просел трафик с поиска, большинство сразу начинают:
«Алгоритмы поменялись», «Конкуренты подтянулись», «SEOшник что-то не дотягивает».

Иногда это правда.
Но очень часто реальность гораздо приземлённее:
сайт на Битрикс технически развален так, что поисковику просто неудобно с ним работать.

Технические ошибки Битрикс
Технические ошибки Битрикс

Я захожу на проект, открываю админку, логи, код — и через полчаса уже вижу, где вы зарыли органику.
Давайте пройдусь по типичным техкосякам Битрикс-проектов, из-за которых вы теряете поисковый трафик, даже если у вас классный контент и нормальное SEO.

1. Дубли страниц: когда один товар живёт в десяти урлах

Первая любимая боль — куча дублей:

  • /catalog/tovar1/
  • /catalog/tovar1/?utm_source=yandex
  • /catalog/?ELEMENT_ID=123
  • /catalog/section1/tovar1/
  • и ещё парочка вариантов через фильтры и сортировки

Для пользователя — вроде тот же товар.
Для поисковика — разные страницы, которые конкурируют друг с другом.

Чем это заканчивается:

  • размазанный вес по куче дублей;
  • непредсказуемые урлы в выдаче;
  • проблемы с переездом и редиректами.

Что я делаю:

  • настраиваю нормальные ЧПУ в инфоблоках (без ?ID=123 во фронте);
  • ставлю 301-редиректы со всех «старых» и параметрических урлов на один канонический;
  • аккуратно работаю с фильтрами:

закрываю технический мусор от индексации, оставляю только нужные комбинации.

Дублей быть не должно. Никаких «ну ладно, пусть живут, не мешают» — мешают, ещё как.

2. Фильтр каталога, который плодит SEO-ад

Битриксовский умный фильтр — мощная штука.
Но если его отпустить на самотёк, он начинает штамповать:

  • тысячи страниц с параметрами;
  • с нулевым контентом;
  • с одинаковыми заголовками и текстами.

Поисковик заходит, видит:
1000 страниц «Кроссовки – страница 1», где меняться может только цена да пара спецпредложений.
Вы пытаетесь продвигать «кроссовки для бега», а у вас под этот запрос 50 почти одинаковых URL.

Что я делаю:

  • определяю, какие комбинации фильтров реально нужны как посадочные (бренд, тип, важные характеристики);

Для этих комбинаций настраиваю:

  • внятные ЧПУ;
  • уникальные заголовки и тексты;
  • нормальные мета-теги;
  • всё остальное:
  • либо закрываю от индексации (noindex, nofollow, правила в robots);
  • либо режу количество параметров, доступных для формирования URL.

Фильтр должен быть инструментом, а не машиной по штамповке мусорных страниц.

3. Каноникалы, которые стоят «для галочки» или сломаны

Канонический URL — то, что вы показываете поисковику как «главную» версию страницы.
На Битрикс этим часто занимаются по принципу: «галочку поставили — и ладно».

Типичные косяки:

  • каноникал всегда ведёт на главную (/), потому что «так проще»;
  • каноникал указывает на урл без ЧПУ, хотя индексироваться должен ЧПУшный;
  • на фильтровых страницах каноникал ведёт на раздел, но при этом вы хотите эти фильтровые продвигать.

Итог: поисковик получает противоречивые сигналы, часть страниц вылетает из индекса, часть не набирает вес.

Что я делаю:

Настраиваю корректную генерацию rel="canonical" для:

  • карточек товаров;
  • разделов;
  • нужных посадочных под фильтры;
  • проверяю руками и через логи индексирования: всё ли бьётся с вашей SEO-стратегией;
  • убираю «универсальные» костыли вроде: «давайте всё канонизировать на один URL, так безопаснее». Это не безопаснее, это самоубийство.

4. robots.txt и sitemap: «закрыли всё, что не надо… и пару нужных вещей заодно»

Ещё один классический бардак:

  • в robots.txt закрыты важные разделы, потому что когда-то «так посоветовал знакомый SEOшник»;
  • файлы sitemap генерируются как попало — половины нужных урлов там нет;
  • нигде не отражены новые разделы / поддомены / языковые версии.

Плюс, в Битрикс любят:

  • поднимать тестовый стенд, забывать закрыть его от индексации;
  • запускать поддомены, которые начинают конкурировать с основным сайтом.

Что я делаю:

  • разбираю robots.txt по строкам:
    убираю устаревший бред, который живёт там годами
    ;
  • перенастраиваю генерацию sitemap:
  • только нужные разделы и типы страниц;
  • без мусора, без дублей;
  • актуальные урлы;
  • обязательно закрываю тестовые / дев-окружения от индексации.

robots и sitemap — это не планы на завтра, которые можно накидать и забыть. Это рабочие документы для поисковика.

5. Медленные страницы: когда поисковику физически тяжело вас ползать

Гугл и Яндекс не хотят тратить кучу ресурсов на сайт, где каждая страница:

  • генерируется по 3–5 секунд;
  • тащит по 100 запросов к базе;
  • грузит мегабайты лишнего JS и картинок.

Медленный сайт = меньшее «краулинговое бюджетирование».
По-простому:
вас реже и хуже сканируют.

Что делаю я:

  • прогоняю ключевые страницы через замеры скорости (и не только фронт, но и серверное время ответа);
  • нахожу тяжёлые компоненты и убираю/кеширую их;
  • оптимизирую картинки и статические ресурсы;
  • вычищаю мусорный JS, который тащится на все страницы подряд.

Ускорение — это не только «чтобы пользователю было приятно», это ещё и прямо про индексацию.

6. Ошибки 404, битые ссылки и старый мусор

У Битрикс-проектов богатая история:
что-то удалили, что-то перенесли, что-то «временно отключили»…

Но никто не посмотрел, что:

  • часть урлов до сих пор в индексе и ведёт в 404;
  • часть разделов перенесена без нормального 301-редиректа;
  • старые рекламные кампании всё ещё гонят трафик на несуществующие страницы.

Поисковику такое не нравится.
Пользователям — тем более.

Что я делаю:

  • собираю список 404-страниц из логов сервера, веб-мастеров и аналитики;
  • группирую эти урлы и настраиваю массовые редиректы на актуальные страницы;
  • проверяю, чтобы 404 давалась только там, где это реально «мёртвый» контент, а не «мы ленились настроить переезд».

Чем меньше у вас битых следов прошлого, тем спокойнее живёт сайт в поиске.

7. Как я обычно подхожу к просадке трафика на Битрикс

Когда ко мне приходят с запросом «упал трафик, посмотри, что там с Битриксом», я не начинаю с гаданий и не сваливаю всё на «алгоритмы».

Я:

  1. Смотрю аналитику: где именно просело — какие разделы, типы страниц, устройства.
  2. Сверяю это с техкартиной:
  • менялись ли урлы;
  • не ломали ли ЧПУ/фильтры;
  • не правили ли шаблоны, robots, sitemap.

3. Делаю технический SEO-аудит именно под Битрикс:

  • дубли, каноникалы, фильтры, скорость, структура инфоблоков.

4. Собираю список техисправлений: от самых критичных (которые убивают индекс и трафик) до «косметики».

После этого разговор с владельцем бизнеса звучит уже не так:
«Ну там магия SEO, сложные времена».

А так:

«У вас:
– вот тут дубли,
– вот здесь фильтр всё засоряет,
– вот здесь редиректы не настроены,
– а вот здесь сайт просто не успевает обслужить ни пользователя, ни робота.
Чиним в таком порядке: 1, 2, 3. Вот прогноз по эффекту».

И дальше это уже не «что-то с SEO не так», а вполне конкретный план действий, после которого трафик перестаёт утекать через технические дырки.

Маркетинговое агентство Brosto Pro, 💥 создание и продвижение сайтов от Бросто Про