Из-за дублей сайты падают в поиске и теряют трафик. Как проверить сайт на дубли внутри сайта? При этом караются сайты не только за копирование текстов с других сайтов, но из одинаковые тексты на разных страницах сайтах. Почему поисковые системы не любят дублирование контента? С точки зрения поискового робота, дублирующийся страницы сайта представляют собой обычный «технический мусор» и не несут ценности для пользователей. Как проверить сайт на дублирование контента среди его страниц? 1) Проверить файл robots.txt и сравнить его с файлом, предоставляемым CMS по умолчанию. Убедиться, что конечная версия файла robots.txt на сайте закрывает все технические дубли страниц. 2) Просмотреть просто визуально сайт и проверить, не повторяются ли тексты на страницах пагинации сайта. Текст должен присутствовать только на основной (первой) странице каталога и не должен дублироваться на второй и последующих страницах. Пример: имеется текст на странице http://сайт.ru/catalog/. На страницах h
Самая частая причина падения трафика — дубли сайта
22 апреля 202022 апр 2020
13
2 мин