Найти тему
PromoPult

Как за несколько минут собрать заголовки и метатеги для сайта

Оглавление

Сбор и анализ метатегов и заголовков — важная процедура в SEO. Можно проанализировать данные своего сайта: выявить пустые теги, слишком длинные или короткие, нерелевантные заголовки. А можно собрать метатеги и заголовки с сайтов конкурентов.

Для того чтобы «вытащить» данные с сайтов, используют парсинг — автоматизированный сбор информации по заданным условиям.

Покажем, для чего вам пригодятся заголовки и метатеги с сайтов ваших конкурентов, и какие простые способы парсинга существуют.

Зачем собирать метатеги и заголовки с сайтов конкурентов

1. Выяснить ключевые фразы, по которым продвигаются конкуренты.

Если окажется, что на сайтах заполнены теги Keywords, вы получите доступ к их семантическому ядру. Но ключи можно вычленить также из Title и Description. Для этого нужно добавить метатеги в один из SEO-анализаторов (например, advego.com/text/seo или text.ru/seo):

-2

Выявленные ключевые фразы можно использовать для составления или расширения своего семантического ядра.

2. Выяснить логику формирования метатегов. Можно понять, есть ли какой-то шаблон, зависимости, в какую часть включен основной ключ, указывают ли конкуренты цену и другие преимущества и т.п.

3. Выявить структуру и характер заголовков h1-h6:

  • какое вхождение ключей используется — точное или разбавленное;
  • какова длина заголовков;
  • есть ли логика в распределении ключевых фраз по заголовкам разных уровней.

Как собрать метатеги и заголовки с любого сайта

Рассмотрим несколько популярных несложных способов.

Собираем вручную

Если у вашего сайта не больше 10 страниц, можно собрать метатеги и заголовки вручную.

В режиме просмотра кода найдите теги <title>, <description> и заголовки <h1>:

-3
-4

Скопируйте содержимое и вставьте в Excel или Google таблицу. Но если для корпоративного сайта-визитки это задача на полчаса, для интернет-магазина — практически неподъемный объем работы. Посмотрим, как можно ускорить процесс.

Используем расширения для браузера

Есть несколько расширений для браузеров, которые выполняют функции парсеров. Вот какие инструменты есть, например, для Google Chrome: Parsers, Scraper, Data Scraper, kimono. Покажем, как работать с расширением Scraper.

Открываем нужную страницу, нажимаем на значок расширения (он появится на панели после установки) и выбираем «Scrape similar...»:

-5

В выпадающем окне в блоке Selector выбираем XPath, вводим нужный запрос – //title, //h1 или //meta[@name='description']/@content и нажимаем «Scrape»:

-6

Результат можно экспортировать в Google Docs.

Минус этого метода – трудозатратность, ведь нужно открыть каждую страницу для парсинга.

Используем автоматизацию

В PromoPult есть инструмент сбора данных из метатегов и заголовков h1-h6.

Вот его возможности:

  • сбор заголовков title, мета description, keywords и заголовков h1-h6 (вместе или по отдельности) с любого сайта;
  • загрузка URL из XLSX-файла, текстового файла или списком;
  • выгрузка отчетов в формате HTML или XLSX.

В чем главные фишки:

  • Никаких ограничений по количеству URL и числу проверок в сутки.
  • Работа онлайн (в облаке), не придется устанавливать программу на компьютер.
  • Парсинг проходит в фоне — просто запускаете задачу и закрываете браузер. Когда все будет готово, вам придет уведомление на email.
  • Готовые отчеты хранятся на сервере PromoPult, вы сможете иметь к ним доступ в течение неограниченного времени.

Как собрать метатеги и заголовки при помощи инструмента PromoPult

1. Зарегистрируйтесь или авторизуйтесь в PromoPult. Это нужно, чтобы получить доступ к отчетам в личном кабинете. Если у вас еще нет аккаунта в PromoPult, создайте его, это займет не больше минуты.

2. Добавьте URL. Перейдите на страницу инструмента и добавьте URL страниц, информацию с которых необходимо спарсить.

Как это можно сделать:

  • Указать ссылку на XML-карту сайта. Инструмент соберет все URL, указанные в карте. Если нужны определенные URL, этот способ не подходит. Формат ссылки: https://site.ru/sitemap.xml.
  • Загрузить XLSX-файл. Парсер соберет все URL из первого листа файла по принципу «одна ячейка – один URL».
  • Добавить URL списком, каждый адрес — с новой строки.
-7

3. Укажите настройки. Активируйте чекбоксы рядом с данными, которые нужно собрать. Советуем собирать сразу все — стоимость не изменится. Только если парсите большой сайт с тысячами URL, для ускорения процесса лучше отметить те данные, реально потребуются.

-8

4. Получите отчет. После завершения задачи вы получите уведомление на e-mail:

-9

Отчет доступен в «Списке задач» в формате XLSX.

-10

Отчет содержит два листа:

  • Результаты — столбцы URL, Title, Description, Keywords, h1, h2, h3, h4, h5, h6. Если на странице несколько заголовков h1-h6, они прописываются в ячейке через знак &.
-11
  • Исходные настройки — указано, какие данные и для каких URL собирались.

Стоимость парсинга зависит от количества запросов к странице сайта:

-12

Как видите, даже при очень больших объемах использование инструмента стоит недорого.

Информация в Title и Description позволяет поисковикам точнее определить релевантность страниц поисковому запросу, а пользователям понять, подходит ли контент, опираясь на описание страницы (сниппет) в результатах поиска. Анализ метатегов и заголовков со страниц других сайтов открывает дорогу к пониманию стратегии конкурентов. Автоматизация процесса значительно ускоряет работу и позволяет сосредоточиться на важных задачах.

Попробуйте инструмент парсинга метаданных в действии — первые 500 URL бесплатно!