Найти тему
Мульти сайт

Индексация страниц в Яндекс и Гугл - почему число разнится?

Оглавление

Зачастую, увидев аудит сайта, подготовленный сеошниками, у заказчиков возникают вопросы: что это за параметры? Как их оценивают? И насколько все плохо? (да-да, самый часто задаваемый вопрос)

Мы решили рассказать подробнее о важных параметрах базовой оптимизации.

Начнем с количества проиндексированных страниц в Яндексе и Google.

Почему важно, чтобы число совпадало или незначительно расходилось? Для крупных информационных порталов и СМИ расхождение незначительно сказывается на посещаемости. Когда дело доходит до коммерческих сайтов и интернет-магазинов, разница в 10% и более грозит потерей прибыли.

Например, Яндекс проиндексировал 15 страниц вашего сайта, а в Гугле всего - 5. Т.е. пользователь российского поисковика с большей вероятностью найдет вашу компанию, чем приверженец Гугла.

Здесь 2 варианта развития событий - поисковики видят:

  • не все продвигаемые страницы;
  • мусорные страницы, увидев которые пользователь уйдет с сайта.

Как проверить, сколько проиндексировано?

Существует несколько способ, но мы расскажем о самом простом:

  • вбиваем в поисковой строке site:домен вашего сайта (делаем это как в Гугле, так и в Яндексе)
  • смотрим результат:
-2

Почему может возникать эта ситуация?

Новый сайт, раздел, страницы товаров

Вы совсем недавно сделали сайт, и поисковые роботы просто не успели просмотреть все ваши страницы. Нужно просто подождать, а не делать скоропалительные выводы.

Нет карты сайта - sitemap

Это XML-файлы с информацией, которые помогают роботу, можно сказать навигируют его. Добавив их, вы упростите путь к страницам сайта и ускорите процесс индексации.

Ошибки на сайте

Регулярно в панели веб-мастеров вы можете находить оповещения об ошибках, в том числе и о проблемах с индексацией. Не игнорируйте их.

Ошибка с robot.txt

Что такое robot.txt? Это текстовый документ в специальной кодировке, который дает рекомендации поисковому роботу - инструкции.

Всего их может быть три:

  • полный доступ;
  • возможность переходить и частично индексировать;
  • полный запрет на переход и индексацию.

Зачем он нужен?

Иногда поисковикам не стоит видеть некоторые страницы. Например, вы создали несколько посадочных для тестов, и продублировали некоторый контент. Роботу не стоит это видеть, а то еще на санкции нарветесь, поэтому - закрываем от индексации и живем спокойно.

Но иногда случайно можно закрыть нужные страницы, и тогда возникает эта разница в количестве. Проверьте, все ли в порядке или попросите специалиста это сделать.

Дубли страниц и неуникальный контент

Робот тратит время на прохождение вашего сайта, и видя задубленный контент, или скопированный с другого ресурса, он делает вывод, что ваш сайт неполезен.

Итоги:

  • понижение позиций,
  • проблемы с индексацией - робот заглядывает к вам все реже и реже;
  • санкции.
Выводы: заметили большой разрыв в числе проиндексированных страниц? Не игнорируйте это! Обратитесь к специалисту и исправьте ситуацию.