Найти тему

Внутренняя оптимизация сайта

После того как я создам сайт на битриксе клиенты часто задают вопрос о SEO оптимизации, потому что это самый недорогой способ раскрутки проекта. Когда в организации есть человек или группа специалистов, которые занимаются наполнением сайта, не имеет смысла отдавать сайт на аутсорсинг по продвижению, который может не окупиться. Достаточно провести технический аудит и выполнить задачи по внутренней оптимизации, про которые я и пишу для вас статью.

Откуда программист знает о продвижении сайтов?

Разработкой сайтов на 1С Битрикс я занимаюсь с 2010 года, за это время создал и участвовал в создании более 150 проектов, а сколько сайтов дорабатывал и допиливал, уже сложно ответить, наверное, раза в 3 больше.

Первые несколько лет, когда клиенты просили меня провести технический аудит и заточить сайт для SEO, я пользовался услугами сеошников. Когда мне стало понятно, что все аудиты содержат примерно одинаковые требования, я сделал выкладки и составил свой список задач по этой теме.

Проверить ответ сервера

    
Страницы сайта будут индексироваться поисковиками если сервер возвращает в заголовках статус 200 или 301(для редиректов). 
Если будут найдены ошибки запроса (4xx) или сервера(5xx), поисковик не сможет добавить страницу в индекс.
Страницы сайта будут индексироваться поисковиками если сервер возвращает в заголовках статус 200 или 301(для редиректов). Если будут найдены ошибки запроса (4xx) или сервера(5xx), поисковик не сможет добавить страницу в индекс.

Подробнее..

Сделать 301 редирект домена без WWW на домен с WWW

   
Чтобы поисковые роботы понимали сайты с www и без www как один и тот же сайт, нужно сделать 301 редирект.
Чтобы поисковые роботы понимали сайты с www и без www как один и тот же сайт, нужно сделать 301 редирект.

Настроить sitemap

 

В файл sitemap.xml нужно включить все страницы вашего сайта, которые поисковый робот будет обходить.
В файл sitemap.xml нужно включить все страницы вашего сайта, которые поисковый робот будет обходить.

Настроить robots.txt


Файл robots.txt передает поисковикам информацию, в виде директив, о страницах, которые не нужно индексировать. Например, это страницы личного кабинета или авторизации/регистрации. Кроме того, в данном файле указываются Host(главное зеркало сайта) и Sitemap(путь к карте сайта, т.е к sitemap.xml).
Файл robots.txt передает поисковикам информацию, в виде директив, о страницах, которые не нужно индексировать. Например, это страницы личного кабинета или авторизации/регистрации. Кроме того, в данном файле указываются Host(главное зеркало сайта) и Sitemap(путь к карте сайта, т.е к sitemap.xml).

Создаем ЯндексЧат

 
  
Если на вашем сайте работает онлайн-чат, например, JivoSite или виджет Bitrix24, то можно улучшить сниппет в поисковой выдачи Яндекса добавив в него Чат с компанией.
Если на вашем сайте работает онлайн-чат, например, JivoSite или виджет Bitrix24, то можно улучшить сниппет в поисковой выдачи Яндекса добавив в него Чат с компанией.

Скрывать тексты при пагинации/сортировке

 
 Контент должен быть уникальный, поэтому должен находиться только по одному url-адресу.
Контент должен быть уникальный, поэтому должен находиться только по одному url-адресу.

Прописать rel="canonical" для страниц с get-параметрами

Дубли страниц, в большинстве случаем, создают get-параметры. Чтобы страницы лучше индексировались, от дублей нужно избавляться.
rel="canonical" помогает указать поисковому роботу каноническую страницу, чтобы бот понимал, какую страницу нужно добавлять в индекс.
Дубли страниц, в большинстве случаем, создают get-параметры. Чтобы страницы лучше индексировались, от дублей нужно избавляться. rel="canonical" помогает указать поисковому роботу каноническую страницу, чтобы бот понимал, какую страницу нужно добавлять в индекс.

Добавить сайт в вебмастера Яндекса и Google

Вебмастера Яндекса и Google - это инструменты, с помощью которых поисковые роботы получают информацию о вашем сайте. Главное, они принимают файл sitemap.xml, который содержит все страницы сайта и robots.txt, закрывающий от ботов ненужные в индексе страницы. Разберем подробнее процесс добавления сайта в поисковики и создание настроек в вебмастерах.
Вебмастера Яндекса и Google - это инструменты, с помощью которых поисковые роботы получают информацию о вашем сайте. Главное, они принимают файл sitemap.xml, который содержит все страницы сайта и robots.txt, закрывающий от ботов ненужные в индексе страницы. Разберем подробнее процесс добавления сайта в поисковики и создание настроек в вебмастерах.

Внедряем микроразметку на сайт

Микроразметка помогает поисковым роботам создать информационные снипеты в поисковой выдаче, а также позволяет, при расшаривании страницы в соцсетях, передавать в пост нужную картинку, заголовок, описание. Сайты с микроразметкой ранжируются лучше, что увеличивает посещаемость.
Микроразметка помогает поисковым роботам создать информационные снипеты в поисковой выдаче, а также позволяет, при расшаривании страницы в соцсетях, передавать в пост нужную картинку, заголовок, описание. Сайты с микроразметкой ранжируются лучше, что увеличивает посещаемость.

Убираем циклические ссылки

Циклические ссылки - это ссылки страниц на самих себя. Из-за них другие страницы недополучают статический вес, индексирующие поисковые роботы напрасно тратят ресурсы, переходя по таким ссылкам, к то же они не удобны для пользователя. 
Поэтому важно избавиться от циклических ссылок на сайте.
Циклические ссылки - это ссылки страниц на самих себя. Из-за них другие страницы недополучают статический вес, индексирующие поисковые роботы напрасно тратят ресурсы, переходя по таким ссылкам, к то же они не удобны для пользователя. Поэтому важно избавиться от циклических ссылок на сайте.

Оригинал статьи читайте на моем сайте sng-it.ru