Ради удобства выбора современные торговые интернет-площадки предоставляют своим посетителям возможность подбирать товары по самым различным параметрам (фасетами) - от банального цвета до точного артикула, для тех, кто знает чего хочет. И пользователи могут не просто указывать любой из этих параметров, а комбинировать их каким-угодно образом.
Пользователю удобно, а вот владельцу сайта - нет.
Чтобы показать пользователю подборку каких-нибудь пылесосов с аквафильтром, красного цвета, шнуром 3 метра необходимо создать отдельную страницу. А представляете сколько таких страниц нужно создать, когда на сайте тысячи товаров с миллионом различных параметров? Все это приводит к тому, что на сайте появляется безумное количество страниц, которые очень часто оказываются пустыми или неуникальными. А это ведет к проблемам с индексацией и само собой продвижением сайта в поисковых системах.
Убираем проблемы с дублированием страниц фасетной навигации
В процессе выбора варианта решения проблемы дублирования, которая касается фасетной навигации, необходимо учитывать конечную цель.
Заключается она в том, чтобы существенным образом увеличить количество страниц интернет-сайта, подлежащих индексированию, а также сократить количество страниц, которые индексировать не нужно.
Наиболее полезным для решения этой задачи станет применения следующих инструментов:
1) AJAX
2) Тег noindex
3) Атрибут rel=canonical
4) Robots.txt
5) Консоль Google Search
Рассмотрим каждый из этих вариантов решения проблем с фасетной навигацией более подробно.
- Если вы будете использовать AJAX, то проблем с дублями URL-адресов не будет. Но применение этого метода приемлемо только при запуске магазина с нуля. Уже имеющиеся проблемы он не решит.
- Тег noindex применяется главным образом с целью исключения ботами определенной страницы из поиска.
- При помощи Атрибута rel=canonical вы уведомляете поисковую систему о том, что для индексирования предпочтительна только какая-либо одна определенная страница интернет-сайта, а все остальные версии данной страницы являются всего лишь дубликатами.
- Robots.txt позволяет закрыть для индексирования некоторые группы страниц интернет-сайтов .
- При помощи Консоли Google Search можно временно решить проблему, пока вы создаете более удобную и более современную навигацию.
Каждое из вышеперечисленных решений обладает своими плюсами и минусами. Что же касается универсального решения, то его просто не существует. То есть все будет зависеть от конкретного случая, а также от конкретной направленности вашего интернет сайта.
Информация была полезной? Ставь лайк и подписывайся на канал SEMANTICA, чтобы не пропустить новые советы и полезные сведения!