Для чего это делать? Пожалуй отправлю к своей недавней публикации о поисковых машинах и как они строят поисковую выдачу. Там про настройку фида и есть теоретическая часть плюс ссылка на особенности поисковиков.
Давайте по шагам как делал я.
Для начала самому копаться и искать проблемные зоны затруднительно. Воспользуемся любой системой анализа сайтов. Сам предпочитаю megaindex.ru/?from=44733. Ссылка реферальная. Хотите - цифорки уберите. Мне не жалко. Единственно нужно немного разобраться и перейти (указать вручную) бесплатный тарифный план. Про продвижение в нем особо не могу сказать. Раньше, пару лет назад, хорошо работало. Сейчас просто не пользуюсь.
Нам главное получить с них отчет и по нему исправлять косяки.
Редирект с www.
При обновлении ядра друпала заменяются базовые файлы. А ведь в них изменялись, в свое время, параметры... Естетсвенно, как большинство людей для личного блога записи изменений не делал. Ха, многие и рабочую документацию не ведут...
Посему пошел проверять всё. Да, увидел, что сайт доступен и с www и без. Соответственно, поисковики определали зеркало как хотели и склеивали, и ругались за это на вебмастера. Подозреваю, что наличие обоих вариантов "минус" от поисковика заслуживает.
Итак идем в .htaccess и настраиваем перенаправление. После редиректа с www сайт исчезает. Пару апов поисковиков и в выдаче половина дублей исчезает.
Роботс тхт.
Дубли часть исчезли. Но не все. Откуда беруться дубли? Это роботы прочитали служебную информацию, попутали анонсы с основной статьей, комментарии посчитали и столько же раз посчитали статью...
Короче нам нужно закрыть всю лишнюю информацию от поисковых ботов.Да, мы потеряем считанное количество посетителей из этого мусорного трафика, зато приобретем уважение робота. Уважение заключается в том, что чем меньше ему лопатить информацию и сравнивать её, тем быстрее он пристроит её в выдаче и, заметьте, отметку себе сделает, что этот сайт обрабатывать легче и можно чаще заходить. Предположение такое, но, судя по всему, оно не далеко от истины.
Настройки достаточно сложны. Подробно описал в статье о коректном robots.txt для друпала. Приведен сам файл и общие рассуждения. Там же найдете ссылочку на оригинальную статью с подробнейшими объяснениями.
Пошли по друпалу оптимизировать.
Добираем "сопли" из выдачи.
Есть информация что поисковики считают страницы с ссылкой какноникал и шортлинк как разные страницы. То есть обрабатывается страница дважды. Ну и гнев поисковиков на это имеет место быть. Советуют шортлинк тег ликвидировать как класс. Что и сделал.
Микроразметка.
Уже становится хорошим тоном её настраивать. Боты уважают её очень. Вся работа за них уже сделана. Остается только переваренную информацию разложить по полочкам и в выдачу отправлять.
Ссылки исходящие.
Эти просто проверяем, чтобы все были рабочие. Битые или в порядок приводим или удаляем. Боты обожают когда по ссылкам не выдается хлам или 40х страница. Атрибуты так же проверяем. Что-то нужно для индексации, а что-то не очень, а что-то совсем не нужно..
Отдельно стоит отметить ссылки не явные. Это всякие счетчики, ссылки в скриптах и прочее "программирование". Просмотреть. Закрыть от индекса. Лишнее удалить.
Ссылки входящие.
Да, не ослышались и не опечатка. Входящие ссылки очень интересны ботам. Что с ними можно сделать?
- Поставить заглушки на страницы, где нет информации. Проверить выдачу 40х кода.
- Перенаправить трафик по ним и ботов, соответсвенно, на другую страницу сайта. Тут смотреть на качество ссылки. Если она совсем не тематическая или с откровенного говносайта - лучше 404 ошибку выдать, чем "принять" её вес на душу.
- Убедиться в качестве материала, на который ссылаются. Иногда дописываю статьи, если вижу по ним трафик. Поведенческие факторы ботами учитываются и каждая секунда посетителя на сайте нам в плюс.
Проверяем фиды: Feed и ленты RSS.
Что в них и сколько выдается. Тут общих правил нет. Если воровства не боитесь - лучше весь материал публиковать. Если воруют через ленты, то только ананос в неё. Но быть должны они обязательно. Фид гугл очень качественно и часто кушает и использует для индексации.
Проверяем рекламу.
Где как стоит и как выводится. Может что-то убрать? Что-то добавить? От индексации закрыта?
Кеширование и скрипты.
Кешировать и объединять скрипты очень круто и заметно повышает скорость работы сайта. НО. Но поисковики не любят этого. Очень. Про кеширование не скажу, а скрипты лучше не сжимать и не объединять. Пусть поисковики смотрят, что мы чисты и лишнего не втюхиваем. Гугл обмолвился как-то, что пессимизирует сайты где скрипты не явно видны. К размышлению.
Кстати, может стоит задуматься о присвоении своим сайтам выделенного IP адреса. Сам решился. Посмотрю результат будет или нет.
Из мегаиндекса результаты получаем и анализируем.
Общий анализ. Коды не верных ответов и битые ссылки должны исчезнуть, если все выше оговоренное сделали.
Тайтл. Неудовлетворительно. Смотрим. Исправляем. Использую модуль метатег. Отключаем наследование. И вперед настраивать выдачу. В примечаниях видно что и как исправлять. Не забваем Cron и очистку кеша. Исправили.
Заголовки теперь в порядок. H1 только один на страницу. Остальное по уровням. На отлично не выйдет, но на "удовлетворительно" нужно выйти.
Далее термины правим.
Все должно стать красивым и понятным.
И, да, на заглавной странице должны быть описания. Хоть и поговоаривают, что боты их не учитывают. Не учитвыват, но читают. Думаю, они должны быть.
Приводим заголовки в порядок. Меньше слов. Лучше запрос. Точнее запрос.
И не забудем про внешние битые ссылки на сайт. То есть ссылки из интернета ведущие на не существующие страницы Вашего сайта.
Коммент - подписка - лайк поддержит меня в наполнении канала.
Рекомендую свои статьи:
- Открыть docx xlsx в офисе 2003.
- Виндовс 10 не подключает сеть Wi-fi
- Что можно удалить из папки Windows
- Горячие клавиши Windows Win+
- Тормозит компьютер с HDD диском - решаем проблему в 99% случаев
- Легко и быстро очищаем системный диск С.
- В браузере смотрим пароли и удаляем вирусы, которые майнят на вашем ПК.