Найти в Дзене
Inweb

Использование логов сервера для поиска дубликатов и других ошибок

При поиске технических ошибок на сайте полезно анализировать логи сервера, чтобы понимать, как часто и какие страницы сканируются поисковыми системами и другими ботами.

Конечно же, большинство из этих ошибок указаны в GSC, но не все страницы, так как GSC показывает только примеры наличия проблемы, а не полный отчет о технических ошибках.

В логах сервера видны следующие проблемы:

  1. Наличие битых ссылок, которые посещаются роботами или пользователями.
  2. Посещение страниц, с которых проставлен редирект.
  3. Мусорные страницы, которые сканируются поисковыми системами или посещаются пользователями.

Программ для анализа логов десятки, выбирайте на свой вкус:

1. Apache Logs Viewer.

2. goaccess.io.

3. Web Log Explorer.

4. Log Analyzer: Trends.

5. seolyzer.io.

Разберем на примере Apache Logs Viewer, принцип у всех программ +- одинаковый, отличается только визуальное предоставление информации.

Как работать с программой Apache Logs Viewer:

1. Скачиваете Apache Logs Viewer – https://www.apacheviewer.com/download/.

2. Скачиваете с хостинга логи сервера за последнюю неделю.

3. Открываете логи и выбираете формат Combined, чтобы показывались данные по User-agent и Referer.

4. Открывается таблица с 8 столбцами:

  1. IP-адрес посетителя.
  2. Дата и время посещения.
  3. Запрос, т.е. запрашиваемый url-адрес.
  4. Status – код ответа сервера.
  5. Referer – откуда совершен переход.
  6. User-Agent.
  7. Страна.
-2

Программа бесплатная, но некоторые функции, например, построение сложных графиков и фильтров, платные. Для поиска проблем можно обойтись и без них.

Используя базовые сортировки по коду ответа сервера либо user-agent будут видны технические проблемы сайта, которые требуют внимания оптимизатора.