Найти тему
Алексей Панов про SEO

Screaming Frog - на что обратить внимание в анализе сайта

Оглавление
Забирай бесплатный гайд на 200+ страниц “SEO по полкам в 2023г” в моём TG канале, совершенно бесплатно - https://t.me/seoobuchenie

Screaming Frog SEO Spider используется в технической оптимизации сайта. Программа позволяет спарсить страницы сайта и получить данные по каждой странице.

Можно парсить сайт целиком

Mode - Spider

Либо спарсить данные по конкретным URL

Mode - List

Вот какие данные нам понадобятся для технической оптимизации

Битые ссылки

Bulk Export - Response Codes - Internal & External - Client Error (4xx) Inlinks

-2

На выходе получается файл вида:

-3

Нас интересуют 2 столбца - Source (На какой странице размещена битая ссылка) и Destination (Сама битая ссылка)

Ссылки с редиректом

Bulk Export - Response Codes - Internal & External - Redirection (3xx) Inlinks

-4

На выходе получается файл вида:

-5

Нас интересуют 2 столбца - Source (На какой странице размещена ссылка с редиректом) и Destination (Сама ссылка с редиректом)

Также мы можем получить страницу, на которую ведет редирект.

Для этого переходим на вкладку Responce Codes, фильтруем по Redirection (3xx)

-6

На выходе получается файл вида:

-7

Сначала необходимо отфильтровать страницы по столбцу Status Code. Нужен код 301.

Далее в столбце Address видим ссылка, которая редиректит на ссылку из столбца Redirect URL. В столбце Redirect URL указан окончательный адрес страниц после редиректов.

Внешние ссылки

Вкладка External

В файле будут указаны все исходящие с сайта ссылки.

Страницы, закрытые от индексации

Во вкладке Internal есть столбец Indexability

Если статус Non-Indexable, значит, страница не индексируется.

Нужно искать причину.

Самые распространенные - закрытие страницы в robots.txt либо закрытие метатегом meta name robots noindex.

Вкладка Responce Codes - фильтруем по Blocked by Robots.txt

-8

Чтобы найти страницы, закрытые в meta name robots noindex:

Вкладка Directives - Фильтруем по Noindex

-9

Дубли метатегов

Переходим во вкладки Page Titles, Meta Description, H1

-10

Фильтруем по

-11

Так найдем страницы без метатегов, с дублирующимися метатегами, со слишком объемными либо слишком короткими мета и тд.

Canonical

hreflang

-12