Структура ссылок, которые используются в интернете, является одним из факторов поисковой оптимизации сайта. ЧПУ (человекопонятные URL или, как я их называю, дружественные) прошли определенный этап развития от идеи и сформулированного принципа, до концепции, которая претендует уже на звание технологии. Основная идея изначально была в попытке снабдить адрес в сети читаемой структурой, сделать идентификатор ресурса максимально понятным и простым. Следующий этап продиктовали поисковые системы (ПС), которые заинтересовались дополнительным источником описания страницы. Когда ПС сделали вид ссылки одним из своих параметров, влияющим на определение релевантности поисковому запросу, ЧПУ превратился в один из инструментов SEO.
Минусы «недружественной» структуры URL:
- плохая читаемость ссылки;
- удаление или игнорирование поисковыми системами при индексации;
- рейтинг страницы, получаемый при индексации, меньше чем у дружественной (человекопонятной).
Если людей мы судим по тому, как они одеваются, то первое впечатление о сайте, который появился в поисковой выдаче, должен производить вид ссылки. Поисковые системы постоянно улучшают алгоритмы обработки страниц при индексации. Даже самые сложные ссылки проходят тщательный анализ. К сожалению, полное описание алгоритмов недоступно широкой публике. Опытный SEO специалист тестирует многие вещи на практике, анализируя статистику и вырабатывая свой индивидуальный подход. Однако, то, что ключевые слова в ссылках являются одним из факторов ранжирования, уже давно известный факт.
Явные плюсы человекопонятных ссылок состоят в том, что их легче читать и понимать, а также такой подход повышает уровень SEO.
Увеличению рейтинга сайта способствует следующее:
- наличие тематики в домене;
- иерархическая структура в адресе страницы;
- использование ключевых слов в ссылках;
- якорный текст в URL.
Посмотрите на такую ссылку: htc.com /ua/smartphones/htc-one
Визуально, за несколько секунд можно понять чему посвящена страница. Если бы я встретил такую ссылку на форуме, посвященному смартфонам HTC, то, скорее всего я бы прошел по ней, так как ее вид внушает доверие.
Такая ссылка также соответствует рекомендациям от Google для вебмастеров. Подробное описание рекомендаций можно прочитать здесь
Старый стиль динамических адресов является законным и приемлемым. Я использую свою терминологию. Статической ссылкой я называю ссылку без знака вопроса, амперсанда и знака равенства. Динамические ссылки содержат параметры, влияющие на вид и контент страницы. Их, как правило, труднее читать, потому что они содержат имена параметров и значения, добавляя лишние символы. В ссылке может присутствовать идентификатор пользователя, идентификатор сессии, параметры сортировки, стиль отображения и множество других параметров, которые создают дубликаты страниц с одинаковым содержанием.
Например, рассмотрим такую страницу («Выбор Google в категории Приложения»)
https://play.google.com/store/apps/collection/featured
Если перейти на вторую страницу списка, то можно увидеть, как ссылка примет следующий вид
https://play.google.com/store/apps/collection/featured?start=24&num=24
Ссылка на первоначальную страницу в пагинаторе (блок с навигацией по номерам страниц) теперь будет выглядеть иначе
https://play.google.com/store/apps/collection/featured?start=0&num=24
Можно заметить, что контент первой и третьей ссылки идентичен. Параметр «num» на самом деле необязателен и используется по умолчанию. И к тому же он вовсе не влияет на количество показанных элементов. Параметр «start» для первой страницы необязателен.
Это пример, как могут появиться дубликаты страниц. Если проанализировать другие ссылки на сайте, то можно заметить, что как минимум каждая первая страница категории также имеет дубликат, который получается благодаря автоматической генерации пагинатора программным скриптом.
К месту будет привести выдержку из статьи упомянутой выше, как «рекомендации от Google для вебмастеров по оформлению ссылок».
«Overly complex URLs, especially those containing multiple parameters, can cause a problems for crawlers by creating unnecessarily high numbers of URLs that point to identical or similar content on your site. As a result, Googlebot may consume much more bandwidth than necessary, or may be unable to completely index all the content on your site.»
Минусы динамических ссылок:
- плохая читаемость;
- лишние слова в ссылке;
- дубликаты страниц по содержимому;
- возможная угроза безопасности данных.
Стоит раскрыть немного последний пункт о том, что динамические адреса могут повлиять на безопасность данных. Нередко можно встретить информацию, что произошла «утечка» личных данных с сайтов. Такое может произойти по нескольким причинам. Во-первых, из-за того, что страницы не были запрещены для индексирования в robots.txt. Во-вторых, при передаче определенных параметров страница может показывать дополнительную информацию, доступ к которой должен быть ограничен. Но это уже совсем другая история.
- чем меньше параметров в динамической ссылке, тем лучше. Один или два параметра лучше, чем десять. Раньше попасть в индекс со сложной структурой ссылки было проблематично, но современные системы научились их обрабатывать. Однако не стоит надеяться на то, что поисковый бот будет достаточно умен, чтобы разобраться с длинной ссылкой. Как программист, я всегда говорю, что если в вашей функции 6 параметров, то скорее всего вы еще какой-то забыли 🙂
- статические адреса предпочтительнее динамических;
- наличие ключевых слов лучше, чем их отсутствие
- для разделения слов предпочтительнее использовать дефис;
- нужно избегать перенасыщения ссылки ключевыми словами. Если использовать много ключевых слов в ссылке и в домене, то страница может посчитаться как спам.
Использование дефисов в названиях не является жестким правилом. Matt Cutts (глава отделения Google по работе со спамом) объясняет использование дефисов по-своему в публикации «Dashes vs underscores».
На тему злоупотребления ключевыми словами есть интересная публикация о том, «почему Google против вечной жизни».
Сам же Google советует избегать подобных ситуаций с ключевым фаршем и имеет техническую страницу с описанием http://support.google.com/webmasters/bin/answer.py?hl=en&answer=66358
Также по поводу перенасыщения домена ключевыми словами, есть информативная публикация, которая добавляет ложку дегтя в кажущуюся идеальной схему связки домена и тематики сайта
http://www.seomoz.org/blog/are-exact-match-domains-in-decline
Автор: Александр Денисенко. Веб программист. Занимается профессиональной разработкой сайтов в течении 7 лет. Увлекается музыкой.