Вы когда нибудь задавались вопросом почему Google продолжает выпускать обновления своего алгоритма?
Вы понимаете чего именно касаются эти обновления?
Ни один SEO оптимизатор или контент маркетолог не может точно ответить на эти вопросы, более того даже многие сотрудники Google (те что занимаются разработкой алгоритма поисковой выдачи) не представляют как именно измениться поисковая выдача Google, так называемый SERP после внедрения обновления.
Вся эта неразбериха становится огромной проблемой для владельцев сайтов. У Google существует примерно 200 факторов ранжирования, и с каждым новым обновлением поискового алгоритма становится не понятно на каких именно факторах фокусировать усилия, чтобы достичь первых позиций поисковой выдачи (SERP) или удержать их.
Google выпустил четыре основных обновления поискового алгоритма:
- Panda (панда)
- Penguin (пингвин)
- Hummingbird (колибри)
- Pigeon (голубь)
В промежутке между выпуском основных обновлений алгоритма, инженеры Google модернизировали алгоритм, данные изменения не были широко оглашены, но имели значительное влияние на ранжирование сайтов в поисковой выдаче.
Поисковые алгоритмы google. Обзор изменений.
Прежде чем вы сможете понять влияние каждого отдельного обновления на основной алгоритм, вам нужно разобраться, как он вообще работает.
Алгоритм это — основанная на логике пошаговая процедура для решения определенной проблемы. В случае с поисковыми системами эта проблема заключается в том — как найти максимально релевантную страницу для определенного набора ключевых слов или поисковых запросов.
Алгоритм поисковой системы — это то как Google находит, ранжирует и показывает релевантные результаты поиска по конкретному запросу.
Google — это поисковик номер один в интернете, стал таковым он благодаря фокусу на максимально релевантных результатах поисковой выдачи (удовлетворяющих информационные потребности пользователей) Бен Гомез (тех. вице-президент Google) сказал: «Наша основная цель – дать точный ответ на ваш запрос в кратчайший срок»
Задавшись целью быстро улучшить результаты поисковой выдачи, Google начал обновлять свой поисковый алгоритм, безусловно это влияло на выдачу и делало её более релевантной, но иногда изменения были радикальными. В результате подобных изменений алгоритма многие сайты были пессимизированны в то время как на другие сайты пошел органический трафик в связи с значительным ростом позиций.
Немного истории: Изменения алгоритма бывают значительными и не очень, чаще всё же изменения не значительны. В 2014 году инженеры Google внесли приблизительно 500 изменений в поисковый алгоритм. После внедрения каждого изменения — множество сайтов теряло свои позиции.
Десятью годами ранее, в феврале 2004, Google выпустил обновление под названием Brandy, значительное изменение алгоритма. Целью Brandy было повышенное внимание к текстам анкоров, и некому «Latent Semantic Indexing» (LSI семантически схожие фразы) – по существу поисковый робот смотрел на другие страницы того же сайта с целью оценить где есть семантически схожие термины, которые относятся к индексируемой странице.
В конечном счете Google переключился на анализ ключевого слова + намерений пользователей основанных на анализе дальнейшего их поведения, а не только на исключительно на анализе ключевых слов.
Если копнуть ещё глубже, то в 2000 году Google сделал ряд изменений в том числе запуск Google toolbar и выпуск обширного апдейта алгоритма — Dance, который в свою очередь не оказал значимого влияния на результаты поисковой выдачи.
Google необходимо анализировать большие объемы данных, чтобы принимать более обоснованное решение относительно новых изменений поискового алгоритма. Google анализирует поведение пользователей по множеству специфических запросов, и в последствии исходя из анализа собранных данных формирует новые факторы ранжирования, которые повлияют на SERP и предоставят пользователям максимально релевантный результат.
В этой статье мы рассмотрим 4 основных обновления поискового алгоритма Google, каждое из этих обновлений оказало и продолжает оказывать огромное влияние на SEO в целом, на постраничную оптимизацию (on-page SEO), на контент маркетинг и контент сайта. Давайте рассмотрим эти обновления:
- Panda update
- Penguin update
- Hummingbird update
- Pigeon update (самый свежий)
Основные преимущества для SEO от изменений поисковых алгоритмов Google.
За последние несколько лет мы видели ощутимый положительный эффект на SEO от внедрения алгоритмов Panda, Penguin, Hummingbird и Pigeon. Вот некоторые принципы которые дали положительный эффект для SEO:
Ориентирование Google на интересы пользователей — нужно понять и запомнить, что основная цель поисковых систем и Google в частности — помочь пользователю найти нужную ему информацию в кратчайший срок. Эти четыре обновления, в особенности Panda дали понять всем интернет маркетологам, веб разработчикам и прочим заинтересованным людям, что ориентированность на пользователя и пользовательский опыт это основа грядущих изменений поискового алгоритма Google и как следствие его органической выдаче.
Конечно впереди у инженеров Google много работы, множество новых апдейтов, но уже сейчас у нас есть все шансы найти необходимую нам информацию на первой странице поисковой выдачи Google.
Высокие позиции в органической выдаче за содержательный контент (контент который отвечает на вопросы пользователей)
serpIQ – в современном SEO соглашается с формулировкой — длинна это сила. Объемный содержательный контент, отвечающий на вопросы пользователей в полном объеме, занимает лидирующие позиции в поисковой выдаче Google и как видно из практики в Yandex.
До внедрения алгоритма Google Panda, страница или статья в блоге объемом в 300 слов могла с легкостью попасть в ТОП 10, оптимизатору для ускорения эффекта было достаточно поставить несколько хороших ссылок с высоким PR на данную статью и за непродолжительный срок (несколько месяцев) некоторые подобные страницы достигали ТОП 1 в SERP Google. Эти дни с приходом Google Panda канули в лету. Теперь чтобы получить высокие позиции вам придется создать объемный контент — сообщает нам Брайан Дин.
Сайты которые генерируют и публикуют в больших объемах низкокачественный контент (так называемые контент фермы) были основными виновниками увеличения зависимости занимаемой позиции от длины контента. Подобные сайты потеряли свои позиции в поисковой выдаче Google даже не смотря на накопленные высокие ПФ метрики, хостинговые метрики, возраст домена и прочие ранее не оспоримые факторы ранжирования. И причиной тому не релевантный, бесполезный, чрезмерно оптимизированный контент.
Сегодня Google отдает предпочтение объемному, полезному и актуальному контенту. Поэтому вы должны понимать что отслеживание актуальности информации так же влияет на занимаемые позиции. Например запрос — современные тенденции SEO, в топе покажет только актуальную информацию на текущий год, в поисковой выдаче не будет информации за 2012 или 2014 года.
Польза от обновления контента (создание нового контента)
Каждый раз когда вы публикуете новую страницу или статью, Google дает вашему сайту очки свежести, которые со временем исчезают, вот почему так необходимо обновлять контент или создавать новый.
С течением времени ваш старый контент (статьи, новости, кейсы и прочие виды контента) становятся не актуальными, бесполезными для посетителей, их метрики падают и Google постепенно их удаляет из ТОП 10.
В общем, если вы будете обновлять ваш блог или сайт качественным, хорошо проработанным, релевантным контентом объемом 2000+ слов, у вас есть все шансы получать огромное количество посетителей из органической выдачи Google. А вот для ресурсов с нерегулярными публикациями контента выход на лидирующие позиции Google будет крайне сложен.
Бренд анкоры
Это может быть не очевидным, но алгоритмы Google немного сдвинулись в сторону поддержки бренд билдинга.
Прежде чем Google начал фильтровать сайты, которые использовали входящие ссылки с анкорами с большим количеством ключевых слов в них. Так называемая переоптимизация работала прекрасно. Но SEO эволюционирует и теперь не стоит всецело надеется на построение ссылочного портфеля (хотя это очень важно) По мимо того что ваш ссылочный портфель должен быть в пропорциях 70% на 30%. 70% без анкорных ссылок и 30% анкорных, помимо этого Moz рекомендует 17% от анкора отдавать под бренд текст т.е. – «продажа квартир в Москве и области www.cian.ru».
Ну а теперь давайте взглянем на алгоритмы Google более детально:
Google Panda
Вероятнее всего вы слышали про алгоритм Google Panda, но если вы не ветеран SEO, который регулярно следит за новостями Google и анализирует выдачу после поисковых апдейтов, то скорее всего вы не слишком посвящены в детали.
Алгоритм Google Panda был революцией в SEO, он заставил обратить на себя внимание всех компаний генерирующих лиды через органику Google.
Очень важная вещь которой мы научились — SEO не постоянно, методологии продвижения которые актуальны сегодня и дают быстрый эффект, будут не актуальны завтра. В конце концов, кто бы мог подумать что Google будет накладывать санкции за EMD (exact match domain names) это доменные имена содержащие в себе точное ключевое слово например: запрос — купить часы и его EMD – купитьчасы.рф.
Так что же представляет из себя Google Panda:
В феврале 2011 года первый поисковый фильтр, который был частью Panda Update был внедрен. Этот фильтр был направлен на отсеивание низкокачественного контента, и как следствие удаление его из поисковой выдачи Google (SERP)
Когда алгоритм Google panda был внедрен полностью владельцы сайтов обнаружили резкое падение трафика и позиций сайта (некоторые наоборот обнаружили прирост трафика и повышение позиций)
Google Panda изменил мир SEO оптимизации, он изменил подход к контент маркетингу, контент стратегии, к исследованию ключевых слов, построению ссылочного профиля.
С этого момента Google стал более точно определять какие сайты «заспамлены» и какие могут быть максимально полезны пользователям.
До появления Google Panda, низкокачественные сайты с бесполезным контентом могли ранжироваться достаточно высоко, иногда даже занимали первые строчки SERP. Google Panda 1.0 был выпущен для борьбы с так называемыми контент-фермами. В результате официальные представители Google заявили что Panda повлиял на 12% запросов, очистив их от низкокачественного контента в результатах выдачи.
Контент ферма — сайт с огромным количеством контента (разных тематик) оптимизированный в соответствии с ТОП 10 (занимающий множество высоких позиций в выдаче, но при этом абсолютно бесполезен, не решает ни одной задачи пользователей). Как правило контент фермы создаются для продажи ссылок на таких ресурсах как SAPE и ей подобных и для продажи рекламы, как при обращении на прямую, так и через Adsense и РСЯ.
Google Panda назывался апдейтом, так как он запускался периодически (1-2 раза в месяц).
Panda 1.0 update
Был нацелен на борьбу с контент фермами. Но данный алгоритм не затронул мульти-авторские высококачественные ресурсы (с определенный точки зрения контент фермы) с огромным количеством контента, но в данном случае релевантного.
Google в состоянии понять по поведенческим факторам, социальным сигналам — насколько ценен и полезен определенный ресурс для пользователей.
Panda 2.0 update
Апдейт был выпущен в Апреле 2011 года, его целью были международные поисковые запросы, хотя он все же повлиял на 2% запросов в США.
Этот фильтр так же повлиял на английские запросы в не англоязычных странах например google.fr, google.cn, google.ru если пользователи выбирают английские результаты.
Panda 2.1 – 2.4
Не значительные апдейты произошли приблизительно с мая по июль 2011 года. В них Google стал учитывать большее количество внешних и внутренних сигналов для более точного определения качества контента сайта.
Сайты с коротким или низкокачественных контентом, дополнительно подверглись санкциям, в то время как сайты с хорошим контентом были вновь подняты в ТОП.
Panda 2.3 был нацелен на так называемый user experience (пользовательский опыт) он поднял те сайты, владельцы которых создавали контент решающий информационные потребности (как следствие получали хороший ПФ), прорабатывали навигационные цепочки и прочие элементы влияющие на поведенческие факторы.
Panda 2.4
Был выпущен в августе 2011 года, повлиял приблизительно на 6-9% запросов. Его целью было — начать учитывать конверсию как важный фактор ранжирования (показы к кликам) и отслеживание вовлечения пользователей.
Panda 3.0
Был выпущен 21 октября 2011 года, повлиял он на большие сайты (например aif.ru) Он существенно поднял их в выдаче.
Чтобы более ли менее быть в безопасности (не вылететь из топа и не потерять львинную долю трафика) многие владельцы сайтов стали придерживаться определенных рекомендаций:
- Актуализировать старый контент и поддерживать его ценность для пользователей
- Добавлять свежий, уникальный контент
- Добавить новый контент на все страницы, не использовать не уникальный (чужой)
- Устранить грамматические ошибки
- Использовать только качественную правдивую информацию. При создании контента
Эти рекомендации актуальны и по сей день.
Panda 3.1
был выпущен 18 ноября 2011 года. Он повлиял всего на 1% поисковых запросов. Но тем не менее если представить что этот 1% (от всех возможных запросов) пользователи ищут каждый день на протяжении нескольких лет, это не так уж и незначительно.
Все эти изменения алгоритма были выпущены в результате того, что пользователи получали не релевантные, даже более того — абсолютно бесполезные ответы на свои запросы в поисковой выдаче (SERP)
Panda 4.0
20го мая Matt Cutts твитнул — Google выпустило новое обновление Panda 4.0
Это было новое поколение Панды, и оно породило как потерявших, так и приобретших позиции в ТОП поисковой выдачи.
Это обновление имело огромное влияние на большие сайты и агрегаторы, например ebay потерял огромное количество позиций в ТОП 10 (точнее он полностью вылетел по множеству запросов из ТОП 10)
Если вы создаете сайт сегодня, вы должны понимать, что контент который наполнит его должен быть ценным, интересным, уникальным, решать определенные проблемы.
Если у вас не получится этого сделать, то ваши ПФ будут низкими, конверсия не высокой. И в итоге вы не сможете участвовать в конкурентной борьбе за ТОП 10 поисковой выдачи.
Помимо проигравших свои позиции после обновления Google Panda 4.0 были и те кто существенно вырос вот некоторые из них:
Но были тематики на которые Panda 4.0 не повлиял:
- Недвижимость
- Страхование
- Туризм
- Мода
- Технологии
Факторы за которые накладывается фильтр (санкции) Google Panda:
Здесь я опишу 6 факторов, которые могут стать причиной попадания под фильтр.
Дублирование контента — старайтесь устранить все дубли. Если таковые имеются. Вы можете без проблем найти их используя множество бесплатных утилит (которые помогают найти дубли)
Низкокачественные входящие ссылки — Заспамленные или находящиеся под фильтром ссылки. Их можно отсеивать через xtool, checktrust и прочие инструменты анализа донорских качеств. В случае их обнаружения можно попросить гугл в Search console не учитывать их, как следствие проблема уйдет.
Высокий показатель отказов — высокий показатель отказов является для Google сигналом о наличии не релевантного контента. И соответственно Google понижает позиции сайта в поисковой выдаче.
Низкий показатель возврата пользователей — Так же является для Google сигналом о бесполезности сайта для пользователей и необходимости его понижения в поисковой выдаче.
Больше интересных статей на seotika.ru