Зачастую, увидев аудит сайта, подготовленный сеошниками, у заказчиков возникают вопросы: что это за параметры? Как их оценивают? И насколько все плохо? (да-да, самый часто задаваемый вопрос)
Мы решили рассказать подробнее о важных параметрах базовой оптимизации.
Начнем с количества проиндексированных страниц в Яндексе и Google.
Почему важно, чтобы число совпадало или незначительно расходилось? Для крупных информационных порталов и СМИ расхождение незначительно сказывается на посещаемости. Когда дело доходит до коммерческих сайтов и интернет-магазинов, разница в 10% и более грозит потерей прибыли.
Например, Яндекс проиндексировал 15 страниц вашего сайта, а в Гугле всего - 5. Т.е. пользователь российского поисковика с большей вероятностью найдет вашу компанию, чем приверженец Гугла.
Здесь 2 варианта развития событий - поисковики видят:
- не все продвигаемые страницы;
- мусорные страницы, увидев которые пользователь уйдет с сайта.
Как проверить, сколько проиндексировано?
Существует несколько способ, но мы расскажем о самом простом:
- вбиваем в поисковой строке site:домен вашего сайта (делаем это как в Гугле, так и в Яндексе)
- смотрим результат:
Почему может возникать эта ситуация?
Новый сайт, раздел, страницы товаров
Вы совсем недавно сделали сайт, и поисковые роботы просто не успели просмотреть все ваши страницы. Нужно просто подождать, а не делать скоропалительные выводы.
Нет карты сайта - sitemap
Это XML-файлы с информацией, которые помогают роботу, можно сказать навигируют его. Добавив их, вы упростите путь к страницам сайта и ускорите процесс индексации.
Ошибки на сайте
Регулярно в панели веб-мастеров вы можете находить оповещения об ошибках, в том числе и о проблемах с индексацией. Не игнорируйте их.
Ошибка с robot.txt
Что такое robot.txt? Это текстовый документ в специальной кодировке, который дает рекомендации поисковому роботу - инструкции.
Всего их может быть три:
- полный доступ;
- возможность переходить и частично индексировать;
- полный запрет на переход и индексацию.
Зачем он нужен?
Иногда поисковикам не стоит видеть некоторые страницы. Например, вы создали несколько посадочных для тестов, и продублировали некоторый контент. Роботу не стоит это видеть, а то еще на санкции нарветесь, поэтому - закрываем от индексации и живем спокойно.
Но иногда случайно можно закрыть нужные страницы, и тогда возникает эта разница в количестве. Проверьте, все ли в порядке или попросите специалиста это сделать.
Дубли страниц и неуникальный контент
Робот тратит время на прохождение вашего сайта, и видя задубленный контент, или скопированный с другого ресурса, он делает вывод, что ваш сайт неполезен.
Итоги:
- понижение позиций,
- проблемы с индексацией - робот заглядывает к вам все реже и реже;
- санкции.
Выводы: заметили большой разрыв в числе проиндексированных страниц? Не игнорируйте это! Обратитесь к специалисту и исправьте ситуацию.