Найти тему
websweetweb

Самые частые ошибки в базовой оптимизации сайта

Оглавление

Приветствуем вас на канале веб-студии websweetweb.

Этим постом мы начинаем серию статей об интернет-маркетинге. Мы будем делиться с вами своими собственными наблюдениями, накопленными за время работы.

В первую очередь мы будем писать о том, что лично нам кажется полезным, но и вы задавайте нам вопросы – мы обязательно ответим на них и поделимся с вами знаниями. Форма для вопросов есть в конце статьи.

А сегодня мы обсудим самые частые ошибки в поисковой оптимизации.

-2

К этому нас подтолкнула наша недавно запущенная акция, в которой мы предлагаем всем желающим получить бесплатный аудит сайта.

И на тех сайтах, с которыми мы имели дело раньше, и на сайтах, которые присылали нам на аудит, мы видим одни и те же ошибки. К сожалению, сайты, над продвижением которых кто-то работает, не исключение.

Поэтому сейчас мы поделимся с вами 5 самыми распространенными ошибками, чтобы вы проверили их наличие на своем сайте и смогли их исправить.

1. Файл Robots.txt

Первые проблемы при проверке большинства сайтов начинаются уже на этом этапе. Хоть Robots.txt и основной файл для поисковых систем, мало у кого он настроен корректно.

-3

Robots.txt — основная инструкция для поисковых машин. Он рассказывает о многом: какие страницы сайта разрешено индексировать, а какие нет, где искать карту сайта, какой адрес сайта основной и т.д.

А вот и основные ошибки, которые допускают в этом файле:

  • Не указывают директиву Host для Яндекса
  • Не указывают ссылку на карту сайта в формате xml
  • Закрывают для робота Google доступ к js- и css-файлам, отвечающим за адаптивную верстку

Проверьте, чтобы в вашем файле не было этих ошибок – и инструкция по индексированию вашего сайта будет понятна поисковым роботам.

2. Карта сайта Sitemap.xml

Каждому сайту нужен файл sitemap.xml, в котором содержится список всех его актуальных страниц. Поисковики считают эти адреса и добавляют их в очередь на обход роботами. Многие современные системы управления сайтами умеют создавать такую карту страниц автоматически.

-4

Но даже при этом на большом количестве сайтов есть проблемы с sitemap.xml, и вот какие:

  • Части страниц нет в карте сайта, вплоть до целых разделов
  • В карте сайта есть ссылки на страницы, которых уже нет на сайте
  • В карте сайта есть страницы, индексирование которых запрещено в файле Robots.txt

Проверьте карту своего сайта и настройки программы, с помощью которых вы ее формируете. Если вы обновляете карту вручную – настройте автоматическое обновление. Это сэкономит вам время, а карта сайта всегда будет актуальна.

3. Дубли страниц

Если на сайте есть несколько страниц с одинаковым содержимым, это отрицательно влияет на его позиции в поисковых системах. Поэтому всегда нужно проверять наличие таких дублей и вовремя от них избавляться.

-5

Но и здесь очень часто владельцы сайтов и оптимизаторы ошибаются в самых простых вещах, а именно:

  • Не настраивают переадресацию с адреса вида www.primer.ru на primer.ru (или наоборот). Так сайт доступен одновременно и с «www» в адресе, и без них
  • Не настраивают переадресацию с http-версии сайта на https при ее наличии — и опять же так сразу доступны две версии сайта
  • Не канонизируют слэш. Звучит страшно, но это очень просто: страницы сайта доступны и со знаком «/» на конце адреса, и без него — такого быть не должно

Можно подумать, что поисковые системы умные и сами разберутся, что и как им индексировать. А уж какую страницу брать в поисковую выдачу — точно смогут решить сами. Но лучше не давать им такого выбора: проверяйте дубли и настраивайте на вашем сайте основные редиректы.

4. Битые ссылки

На каждой странице вашего сайта есть ссылки как на другие страница вашего сайта, так и на сторонние ресурсы. При этом другие страницы, на которую она ссылаются, со временем могут как сломаться, так и вообще перестать существовать.

-6

И посетители вашего сайта, и поисковые роботы переходят по ссылкам на страницах. А ваша задача – сделать так, чтобы на сайте не было битых ссылок.

Ссылка называется битой, если при попытке перехода по ссылке пользователь видит сообщение об ошибке, а роботы получают в ответ специальный код, означающий «страница не в порядке».

Регулярно проверять сайт на наличие битых ссылок и устраняйте найденные ошибки. Тем более что найти их легко – просто воспользуйтесь бесплатной программой Xenu.

5. Отсутствие сертификата

Сейчас доступность сайта по защищенному протоколу https вместо стандартного http уже является одним из факторов ранжирования в поисковых системах. А все основные браузеры отображают на http-сайтах значок предупреждения для своих пользователей.

-7

Получается, что попасть в топ-10 поисковой выдачи, не имея сертификата для https, все сложнее. И даже если ваш сайт попадет в топ-10 поисковой выдачи, то посетителя запросто может отпугнуть предупреждение в окне браузера о том, что подключение к сайту не защищено.

Но многие владельцы сайтов совершают очень простую ошибку: их сайты не имеют сертификатов и работают только по протоколу http.

Поэтому ваш сайт обязательно должен быть доступен по протоколу https, а для этого необходимо выпустить и установить на сервер сертификат для вашего сайта.

Вот и все

Теперь вы знаете о проблемах, с которыми мы чаще всего сталкиваемся при проверке сайтов. И мы надеемся, что после прочтения этой статьи вы проверите свои сайты и исправите все найденные ошибки. Так мы все вместе сделаем интернет чуточку лучше.

Но не расслабляйтесь – мы уже готовим продолжение этой статьи, в котором расскажем и о других ошибках. Так что подписывайтесь на наш канал в Дзене – здесь будет интересно и полезно.

А также обращайтесь к нам за аудитом и продвижением ваших сайтов, если хотите доверить это профессионалам.

Напишите нам: