Очаровательный Джон Мюллер отвечает на вопросы про некачественные страницы и удаление их из индекса поисковых систем.
Один из пользователей форума Google Webmaster Central Help поинтересовался, как ускорить деиндексацию большого массива «мусорных» страниц, до сих пор присутствующих в Google. Он добавил, что бывший SEO-специалист его компании считал отличной идеей создание миллионов низкокачественных страниц, не представляющих особой ценности для юзеров. Это привело к тому, что компания столкнулась с падением трафика.
Чтобы решить эту проблему, было решено очистить сайт от «мусора», повысив таким образом его качество. Поэтому для страниц низкого качества были настроены коды ответа сервера 404 и 410, часть страниц удалили, а оставшийся контент переработали.
В компании ждали 7 месяцев, пока Google не удалит все низкокачественные страницы из индекса. Поначалу все шло довольно неплохо, однако затем процесс замедлился, пока Google не начал удалять лишь несколько URL в неделю. Представители компании, опасаясь, что ситуация затянется на несколько месяцев, начали интересоваться, как ускорить деиндексацию.
Джон Мюллер порекомендовал использовать для этого временный файл Sitemap, в котором будут перечислены все URL с указанием даты последнего изменения. Однако он не уточнил, как быстро будет удален контент.
Напомним, в прошлом году Джон Мюллер заявил, что для того, чтобы контент быстро индексировался, нужно, чтобы он был в формате HTML.
Источник: Search Engine Roundtable
Что справедливо и для Яндекс.