Приветствуем вас на канале веб-студии websweetweb.
Этим постом мы начинаем серию статей об интернет-маркетинге. Мы будем делиться с вами своими собственными наблюдениями, накопленными за время работы.
В первую очередь мы будем писать о том, что лично нам кажется полезным, но и вы задавайте нам вопросы – мы обязательно ответим на них и поделимся с вами знаниями. Форма для вопросов есть в конце статьи.
А сегодня мы обсудим самые частые ошибки в поисковой оптимизации.
К этому нас подтолкнула наша недавно запущенная акция, в которой мы предлагаем всем желающим получить бесплатный аудит сайта.
И на тех сайтах, с которыми мы имели дело раньше, и на сайтах, которые присылали нам на аудит, мы видим одни и те же ошибки. К сожалению, сайты, над продвижением которых кто-то работает, не исключение.
Поэтому сейчас мы поделимся с вами 5 самыми распространенными ошибками, чтобы вы проверили их наличие на своем сайте и смогли их исправить.
1. Файл Robots.txt
Первые проблемы при проверке большинства сайтов начинаются уже на этом этапе. Хоть Robots.txt и основной файл для поисковых систем, мало у кого он настроен корректно.
Robots.txt — основная инструкция для поисковых машин. Он рассказывает о многом: какие страницы сайта разрешено индексировать, а какие нет, где искать карту сайта, какой адрес сайта основной и т.д.
А вот и основные ошибки, которые допускают в этом файле:
- Не указывают директиву Host для Яндекса
- Не указывают ссылку на карту сайта в формате xml
- Закрывают для робота Google доступ к js- и css-файлам, отвечающим за адаптивную верстку
Проверьте, чтобы в вашем файле не было этих ошибок – и инструкция по индексированию вашего сайта будет понятна поисковым роботам.
2. Карта сайта Sitemap.xml
Каждому сайту нужен файл sitemap.xml, в котором содержится список всех его актуальных страниц. Поисковики считают эти адреса и добавляют их в очередь на обход роботами. Многие современные системы управления сайтами умеют создавать такую карту страниц автоматически.
Но даже при этом на большом количестве сайтов есть проблемы с sitemap.xml, и вот какие:
- Части страниц нет в карте сайта, вплоть до целых разделов
- В карте сайта есть ссылки на страницы, которых уже нет на сайте
- В карте сайта есть страницы, индексирование которых запрещено в файле Robots.txt
Проверьте карту своего сайта и настройки программы, с помощью которых вы ее формируете. Если вы обновляете карту вручную – настройте автоматическое обновление. Это сэкономит вам время, а карта сайта всегда будет актуальна.
3. Дубли страниц
Если на сайте есть несколько страниц с одинаковым содержимым, это отрицательно влияет на его позиции в поисковых системах. Поэтому всегда нужно проверять наличие таких дублей и вовремя от них избавляться.
Но и здесь очень часто владельцы сайтов и оптимизаторы ошибаются в самых простых вещах, а именно:
- Не настраивают переадресацию с адреса вида www.primer.ru на primer.ru (или наоборот). Так сайт доступен одновременно и с «www» в адресе, и без них
- Не настраивают переадресацию с http-версии сайта на https при ее наличии — и опять же так сразу доступны две версии сайта
- Не канонизируют слэш. Звучит страшно, но это очень просто: страницы сайта доступны и со знаком «/» на конце адреса, и без него — такого быть не должно
Можно подумать, что поисковые системы умные и сами разберутся, что и как им индексировать. А уж какую страницу брать в поисковую выдачу — точно смогут решить сами. Но лучше не давать им такого выбора: проверяйте дубли и настраивайте на вашем сайте основные редиректы.
4. Битые ссылки
На каждой странице вашего сайта есть ссылки как на другие страница вашего сайта, так и на сторонние ресурсы. При этом другие страницы, на которую она ссылаются, со временем могут как сломаться, так и вообще перестать существовать.
И посетители вашего сайта, и поисковые роботы переходят по ссылкам на страницах. А ваша задача – сделать так, чтобы на сайте не было битых ссылок.
Ссылка называется битой, если при попытке перехода по ссылке пользователь видит сообщение об ошибке, а роботы получают в ответ специальный код, означающий «страница не в порядке».
Регулярно проверять сайт на наличие битых ссылок и устраняйте найденные ошибки. Тем более что найти их легко – просто воспользуйтесь бесплатной программой Xenu.
5. Отсутствие сертификата
Сейчас доступность сайта по защищенному протоколу https вместо стандартного http уже является одним из факторов ранжирования в поисковых системах. А все основные браузеры отображают на http-сайтах значок предупреждения для своих пользователей.
Получается, что попасть в топ-10 поисковой выдачи, не имея сертификата для https, все сложнее. И даже если ваш сайт попадет в топ-10 поисковой выдачи, то посетителя запросто может отпугнуть предупреждение в окне браузера о том, что подключение к сайту не защищено.
Но многие владельцы сайтов совершают очень простую ошибку: их сайты не имеют сертификатов и работают только по протоколу http.
Поэтому ваш сайт обязательно должен быть доступен по протоколу https, а для этого необходимо выпустить и установить на сервер сертификат для вашего сайта.
Вот и все
Теперь вы знаете о проблемах, с которыми мы чаще всего сталкиваемся при проверке сайтов. И мы надеемся, что после прочтения этой статьи вы проверите свои сайты и исправите все найденные ошибки. Так мы все вместе сделаем интернет чуточку лучше.
Но не расслабляйтесь – мы уже готовим продолжение этой статьи, в котором расскажем и о других ошибках. Так что подписывайтесь на наш канал в Дзене – здесь будет интересно и полезно.
А также обращайтесь к нам за аудитом и продвижением ваших сайтов, если хотите доверить это профессионалам.