Сбор и анализ метатегов и заголовков — важная процедура в SEO. Можно проанализировать данные своего сайта: выявить пустые теги, слишком длинные или короткие, нерелевантные заголовки. А можно собрать метатеги и заголовки с сайтов конкурентов.
Для того чтобы «вытащить» данные с сайтов, используют парсинг — автоматизированный сбор информации по заданным условиям.
Покажем, для чего вам пригодятся заголовки и метатеги с сайтов ваших конкурентов, и какие простые способы парсинга существуют.
Зачем собирать метатеги и заголовки с сайтов конкурентов
1. Выяснить ключевые фразы, по которым продвигаются конкуренты.
Если окажется, что на сайтах заполнены теги Keywords, вы получите доступ к их семантическому ядру. Но ключи можно вычленить также из Title и Description. Для этого нужно добавить метатеги в один из SEO-анализаторов (например, advego.com/text/seo или text.ru/seo):
Выявленные ключевые фразы можно использовать для составления или расширения своего семантического ядра.
2. Выяснить логику формирования метатегов. Можно понять, есть ли какой-то шаблон, зависимости, в какую часть включен основной ключ, указывают ли конкуренты цену и другие преимущества и т.п.
3. Выявить структуру и характер заголовков h1-h6:
- какое вхождение ключей используется — точное или разбавленное;
- какова длина заголовков;
- есть ли логика в распределении ключевых фраз по заголовкам разных уровней.
Как собрать метатеги и заголовки с любого сайта
Рассмотрим несколько популярных несложных способов.
Собираем вручную
Если у вашего сайта не больше 10 страниц, можно собрать метатеги и заголовки вручную.
В режиме просмотра кода найдите теги <title>, <description> и заголовки <h1>:
Скопируйте содержимое и вставьте в Excel или Google таблицу. Но если для корпоративного сайта-визитки это задача на полчаса, для интернет-магазина — практически неподъемный объем работы. Посмотрим, как можно ускорить процесс.
Используем расширения для браузера
Есть несколько расширений для браузеров, которые выполняют функции парсеров. Вот какие инструменты есть, например, для Google Chrome: Parsers, Scraper, Data Scraper, kimono. Покажем, как работать с расширением Scraper.
Открываем нужную страницу, нажимаем на значок расширения (он появится на панели после установки) и выбираем «Scrape similar...»:
В выпадающем окне в блоке Selector выбираем XPath, вводим нужный запрос – //title, //h1 или //meta[@name='description']/@content и нажимаем «Scrape»:
Результат можно экспортировать в Google Docs.
Минус этого метода – трудозатратность, ведь нужно открыть каждую страницу для парсинга.
Используем автоматизацию
В PromoPult есть инструмент сбора данных из метатегов и заголовков h1-h6.
Вот его возможности:
- сбор заголовков title, мета description, keywords и заголовков h1-h6 (вместе или по отдельности) с любого сайта;
- загрузка URL из XLSX-файла, текстового файла или списком;
- выгрузка отчетов в формате HTML или XLSX.
В чем главные фишки:
- Никаких ограничений по количеству URL и числу проверок в сутки.
- Работа онлайн (в облаке), не придется устанавливать программу на компьютер.
- Парсинг проходит в фоне — просто запускаете задачу и закрываете браузер. Когда все будет готово, вам придет уведомление на email.
- Готовые отчеты хранятся на сервере PromoPult, вы сможете иметь к ним доступ в течение неограниченного времени.
Как собрать метатеги и заголовки при помощи инструмента PromoPult
1. Зарегистрируйтесь или авторизуйтесь в PromoPult. Это нужно, чтобы получить доступ к отчетам в личном кабинете. Если у вас еще нет аккаунта в PromoPult, создайте его, это займет не больше минуты.
2. Добавьте URL. Перейдите на страницу инструмента и добавьте URL страниц, информацию с которых необходимо спарсить.
Как это можно сделать:
- Указать ссылку на XML-карту сайта. Инструмент соберет все URL, указанные в карте. Если нужны определенные URL, этот способ не подходит. Формат ссылки: https://site.ru/sitemap.xml.
- Загрузить XLSX-файл. Парсер соберет все URL из первого листа файла по принципу «одна ячейка – один URL».
- Добавить URL списком, каждый адрес — с новой строки.
3. Укажите настройки. Активируйте чекбоксы рядом с данными, которые нужно собрать. Советуем собирать сразу все — стоимость не изменится. Только если парсите большой сайт с тысячами URL, для ускорения процесса лучше отметить те данные, реально потребуются.
4. Получите отчет. После завершения задачи вы получите уведомление на e-mail:
Отчет доступен в «Списке задач» в формате XLSX.
Отчет содержит два листа:
- Результаты — столбцы URL, Title, Description, Keywords, h1, h2, h3, h4, h5, h6. Если на странице несколько заголовков h1-h6, они прописываются в ячейке через знак &.
- Исходные настройки — указано, какие данные и для каких URL собирались.
Стоимость парсинга зависит от количества запросов к странице сайта:
Как видите, даже при очень больших объемах использование инструмента стоит недорого.
Информация в Title и Description позволяет поисковикам точнее определить релевантность страниц поисковому запросу, а пользователям понять, подходит ли контент, опираясь на описание страницы (сниппет) в результатах поиска. Анализ метатегов и заголовков со страниц других сайтов открывает дорогу к пониманию стратегии конкурентов. Автоматизация процесса значительно ускоряет работу и позволяет сосредоточиться на важных задачах.
Попробуйте инструмент парсинга метаданных в действии — первые 500 URL бесплатно!