Не всегда все, что было просканировано поисковыми ботами и сообщается как о некой проблеме, на самом деле ей является.
Часто сканирование сайта отображает малозначимые проблемы, которые роботы поисковых систем вполне могут проигнорировать.
В этом случае в рамках аудита можно экспортировать результаты сканирования, сгруппировать их по приоритету проблем, затем сегментировать и провести анализ результатов.
Ниже представлен список пунктов, которым вы должны отдать приоритет при сканировании сайта, помимо всех остальных задач по оптимизации сайта:
🔍1 . Доступность контента – самое важное, с чего стоит начать анализ сайта
Недоступным контент может быть из-за:
▷ Блокировки для всего домена через Robots.txt.
▷ Мета роботс noindex, follow / nofollow на ключевых страницах, в т.ч. на главной странице сайта.
▷ Роботы поисковых систем получают HTTP-заголовок в браузере отличный от того, что отдается пользователям.
▷ Заблокированы папки с ресурсами сайта, такие как JS, где рендеринг страницы больше невозможен для Googlebot (где для рендеринга итогового html / текста требуется JS).
Если Googlebot не может получить доступ к страницам и их ресурсам, он выбрасывает все остальное в мусорку.
🔍 2. Возможность сканирования контента
▷ Как только доступность контента будет подтверждена, вам нужно будет сосредоточиться на том, чтобы убедиться, что весь контент сайта доступен для сканирования.
▷ Убедитесь, что никакие серверные правила, CDN или брандмауэры не блокируют запросы Googlebot к сайту (убедитесь, что для Robots.txt код ответа равен 200 OK).
▷ Убедитесь, что ссылки A HREF находятся в отображаемом HTML-коде, чтобы робот Googlebot мог сканировать внутренние страницы сайта.
▷ Убедитесь, что на всех внутренних страницах достаточно внутренних ссылок, чтобы Googlebot обнаруживал их с помощью сканирования и в идеале не полагался на карту сайта Sitemap.xml.
▷ Убедитесь, что JS-скрипты не перенаправляют Googlebot по GEO-IP.
🔍 3. Рендеринг
Теперь вы убедились, что Google может получить доступ ко всему, что нам нужно, чтобы убедиться, что данные на сайте сформированы корректно.
▷ Используйте проверку URL Google (онлайн тест) для просмотра скриншота и отображения исходного кода HTML, а также проверьте наличие заблокированных для сканирования ресурсов.
▷ Проверьте, какая часть контента отображается в виде стандартного HTML, а какая - на основе JS. Избегайте исходного кода на основе JS для основного контента (если вы не уверены, что ваш технологический стек имеет надлежащий SSR).
▷ UX может играть определенную роль в ранжировании, поэтому вы должны убедиться, что ваш сайт не имеет искажений.
🔍 4. Последовательность и правила
▷ Убедитесь, что редиректы HTTP/HTTPS настроены глобально для всего сайта.
▷ Поддерживайте единообразие внутренних ссылок (www / без www, завершающий слеш / неконечный слеш).
▷ Убедитесь, что редирект 301 обрабатывает несогласованные URL-адреса (редирект с завершающего слэша на без слеша и наоборот).
▷ Избавьтесь от всех внутренних редиректов там, где они могут быть устранены путем обновления гиперссылок на странице-источнике.
▷ Обеспечьте присутствие тегов Canonical и сведите к минимуму цепочки канониклов.
🔍 5. Общий профиль содержимого сайта
▷ Следите, чтобы контент соответствовал намерениям конечного пользователя, добавлял новую ценность, охватывал NLP, был уникальным, не был плагиатом и оставался индексе поисковых систем.
▷ Отбраковывайте мертвый контент, не представляющий ценность.
▷ Используйте приоритизацию информации для создания контента.
▷ Пишите для конечного пользователя, максимизируйте ценность, минимизируйте время на потребление, сосредоточьтесь на конечной цели.
Профессиональный технический аудит сайта можно провести при помощи десктопной программы SiteAnalyzer, а также при помощи бесплатного браузерного расширения SiteAnalyzer SEO Tools!