Найти в Дзене

10 способов улучшить SEO вашего сайта

Технический аудит сайта 1) Проверьте, все ли страницы сайта находятся в поиске: 2) Проверьте наличие дублей на сайте. Дубли — это страницы с одинаковым содержанием, но с разными URL. Дубли могут быть полные (если контент совпадает на 100 %) или частичные (с высоким % совпадения). Дубли страниц необходимо удалять. 3) Проверьте наличие пустых страниц (которые не содержат контента). Пустые страницы можно: 4) Проверьте наличие мусорных страниц (которые не содержат полезного контента). Мусорные страницы можно: 5) Проверьте наличие файла robots.txt. Это текстовый файл в корневой директории сайта, который содержит специальные инструкции для поисковых роботов. Подробнее см. справку Яндекса и Google. Размер файла не должен превышать 32 КБ. 6) В файле robots.txt можно указать общие правила для всех поисковых систем и отдельно для Яндекса. В правилах для Яндекса должна быть дополнительно указана директива Host (главное зеркало вашего сайта с www или без) и директива Sitemap с ссылкой на карту ваш
Оглавление

Технический аудит сайта

1) Проверьте, все ли страницы сайта находятся в поиске:

  • по количеству результатов в поиске (в Google — при помощи site:site.ru, в Яндексе — при помощи host:site.ru),
  • в Яндекс.Вебмастер (Индексирование → Страницы в поиске) или в Google Search Console (Индекс Google → Статус индексирования).

2) Проверьте наличие дублей на сайте. Дубли — это страницы с одинаковым содержанием, но с разными URL. Дубли могут быть полные (если контент совпадает на 100 %) или частичные (с высоким % совпадения). Дубли страниц необходимо удалять.

3) Проверьте наличие пустых страниц (которые не содержат контента). Пустые страницы можно:

  • удалить,
  • закрыть от индексации (в файле robots.txt, см. ниже),
  • наполнить контентом.

4) Проверьте наличие мусорных страниц (которые не содержат полезного контента). Мусорные страницы можно:

  • закрыть от индексации,
  • сделать полезными.

5) Проверьте наличие файла robots.txt. Это текстовый файл в корневой директории сайта, который содержит специальные инструкции для поисковых роботов. Подробнее см. справку Яндекса и Google. Размер файла не должен превышать 32 КБ.

6) В файле robots.txt можно указать общие правила для всех поисковых систем и отдельно для Яндекса. В правилах для Яндекса должна быть дополнительно указана директива Host (главное зеркало вашего сайта с www или без) и директива Sitemap с ссылкой на карту вашего сайта. Проверить файл robots.txt можно в Яндекс.Вебмастере.

Подбор семантического ядра

Подбор семантического ядра — это большая тема, которая заслуживает отдельной статьи. Здесь мы остановимся на основных принципах.

7) Прежде, чем перейти к подбору семантического ядра, необходимо понять, какие бывают типы пользовательских запросов и по каким запросам вы будете продвигать сайт:

  • Навигационные (брендовые) запросы — поиск конкретного сайта или места в сети интернет. Обычно по таким запросам сайты находятся на первом месте, и продвижение не нужно.
  • Информационные запросы — поиск информации, неважно на каком сайте (например, как лечиться от простуды).
  • Транзакционные запросы — пользователь хочет совершить какое-то действие («скачать», «купить» и т. д.). Коммерческие запросы всегда являются транзакционными. Но не все транзакционные запросы являются коммерческими (например, «скачать бесплатно»).

Коммерческие страницы (интернет-магазины, сайты компаний) нужно продвигать по коммерческим запросам, информационные (форумы, блоги, статьи) — по информационным.

8) Определить, каким является запрос, информационным или транзакционным, можно при помощи поиска. Введите фразу и посмотрите на результат поисковой выдачи. Если там в основном информационные статьи, то запрос информационный, если коммерческие страницы — то коммерческий.

9) На одну и ту же страницу не должны вести одновременно информационные и транзакционные запросы. Если запрос информационный, то продвигаем статью. Если коммерческий, то добавляем коммерческую информацию (цена, условия доставки и т. д.).

10. Обратиться к профессионалам

Вместо того , чтобы днями мучаться с оптимизацией релевантности вашего сайта - вы можете просто обратиться в нашу студию seo-оптимизации сайтов (https://web-corp.su) и получить качественный результат уже через несколько дней! Мы работаем на данном рынке уже более 3-х лет и за это время вывели десятки сайтов в топ поисковых систем!