Найти тему
SEMANTICA

5 способов избежать проблем с индексацией страниц параметров товаров в интернет-магазине

Ради удобства выбора современные торговые интернет-площадки предоставляют своим посетителям возможность подбирать товары по самым различным параметрам (фасетами) - от банального цвета до точного артикула, для тех, кто знает чего хочет. И пользователи могут не просто указывать любой из этих параметров, а комбинировать их каким-угодно образом.

Пользователю удобно, а вот владельцу сайта - нет.

Чтобы показать пользователю подборку каких-нибудь пылесосов с аквафильтром, красного цвета, шнуром 3 метра необходимо создать отдельную страницу. А представляете сколько таких страниц нужно создать, когда на сайте тысячи товаров с миллионом различных параметров? Все это приводит к тому, что на сайте появляется безумное количество страниц, которые очень часто оказываются пустыми или неуникальными. А это ведет к проблемам с индексацией и само собой продвижением сайта в поисковых системах.

Убираем проблемы с дублированием страниц фасетной навигации

В процессе выбора варианта решения проблемы дублирования, которая касается фасетной навигации, необходимо учитывать конечную цель.

Заключается она в том, чтобы существенным образом увеличить количество страниц интернет-сайта, подлежащих индексированию, а также сократить количество страниц, которые индексировать не нужно.

Наиболее полезным для решения этой задачи станет применения следующих инструментов:

1) AJAX

2) Тег noindex

3) Атрибут rel=canonical

4) Robots.txt

5) Консоль Google Search

Рассмотрим каждый из этих вариантов решения проблем с фасетной навигацией более подробно.

  • Если вы будете использовать AJAX, то проблем с дублями URL-адресов не будет. Но применение этого метода приемлемо только при запуске магазина с нуля. Уже имеющиеся проблемы он не решит.
  • Тег noindex применяется главным образом с целью исключения ботами определенной страницы из поиска.
  • При помощи Атрибута rel=canonical вы уведомляете поисковую систему о том, что для индексирования предпочтительна только какая-либо одна определенная страница интернет-сайта, а все остальные версии данной страницы являются всего лишь дубликатами.
  • Robots.txt позволяет закрыть для индексирования некоторые группы страниц интернет-сайтов .
  • При помощи Консоли Google Search можно временно решить проблему, пока вы создаете более удобную и более современную навигацию.

Каждое из вышеперечисленных решений обладает своими плюсами и минусами. Что же касается универсального решения, то его просто не существует. То есть все будет зависеть от конкретного случая, а также от конкретной направленности вашего интернет сайта.

Информация была полезной? Ставь лайк и подписывайся на канал SEMANTICA, чтобы не пропустить новые советы и полезные сведения!