Фильтры разные важны, фильтры разные нужны. Если положить руку на сердце — на самом деле большинство из них действительно полезное явление, отсекающее совсем уж «никакущие» сайты. В этой статье мы обсуждаем самые важные (а также малоизвестные) фильтры двух самых популярных поисковиков планеты.
Предисловие
Фильтры — это алгоритмы поисковых систем, которые позволяют исключить из поисковой выдачи некачественные сайты или те, чей уровень ранжирования был поднят искусственными методами.
Здесь важно понимать следующее: это не «Гугл/Яндекс плохие».
В большинстве случаев — это просто качественное исполнение своих обязанностей, а для Поисковиков исполнение обязанностей как раз и заключается в том, чтобы предоставить пользователю всю необходимую ему информацию.
представители Гугл любят общаться с веб-мастерами, что в Твиттере, что на конференциях.
Даже если в описании их деятельности четко видно слово «SEO». А это значит, что не «белое конкурентное продвижение» не любит Гугл. А «черное и искусственное».
Точное действие работы алгоритмов поисковиков знают только представители поисковиков.
Но они нам не расскажут. Так что приходится добывать крупицы информации «с миру по нитке». (Условно говоря) фильтры можно поделить на пять групп (в соответствии с «проблемными зонами»):
1. Фильтры за некачественный контент;
2. Фильтры за переоптимизацию;
3. Фильтры за «некачественные ссылки»;
4. Фильтры за накрутку внешних факторов;
5. Фильтры за агрессивную рекламу;
Также существуют проблемы, связанные с «молодостью» сайта. Об этом поговорим отдельно.
Фильтры Google
«Sandbox» (Песочница)
Спорный фильтр, разделивший веб-мастеров на два лагеря: одни верят в его существование и исправное функционирование, вторые же — упорно отрицают. Если «Песочница» существует, то этот фильтр, несомненно, охотится на недавно созданные сайты, не пуская их дальше второй страницы поисковой выдачи.
Цель — проверить новоявленные сайты на «серьезность намерений».
В целом, «Песочницу» можно рассматривать как ответ «Черному SEO».
Противодействие: развитие сайта, а именно — перелинковка, наполнение страниц полезным+уникальным контентом, внимательная закупка ссылок (жизненно важно не переборщить). Также хорошо поможет наращивание упоминаний о вашем сайте от авторитетных источников. Кроме того пригодится метод "Сарафанное радио" — стремитесь, чтобы вашим контентом делились в социальных сетях (и, конечно же, предоставьте пользователям сайта такую возможность).
«Bombing» (Бомбежка)
От этого фильтра страдают сайты, чьи веб-мастера злоупотребляют внешними ссылками с одинаковыми анкорами. По сути, с таким же успехом сайтом можно не заниматься вовсе — такие ссылки в глазах Гугл полностью теряют свою значимость.
Противодействие: Частичное удаление «одинаковых» ссылок, закупка ссылок на «трастовых» ресурсах.
«Broken Links» (Битые ссылки)
От этого фильтра страдают сайты, на которых можно обнаружить множество ссылок с 404й ошибкой, т.е. «битых». Как результат — стремительное падение позиций в поисковой выдаче.
Противодействие: Поиск и удаление битых ссылок (например, при помощи Яндекс.Вебмастер).
«Too Much Links» (Слишком много ссылок)
Если вы закупили слишком много ссылок в один период времени — они теряют всю свою силу. Как результат — остановка роста позиций в лучшем случае, стремительное падение — в худшем.
Противодействие: Если вы еще не успели ничего испортить — совет прост: не пользуйтесь методами черного продвижения, закупайте ссылки постепенно. Многие веб-мастера советуют начинать продвижение с момента того, как сайту исполнилось не меньше, чем полгода. А до этого времени все свое внимание бросить на функционал и создание уникального контента.
«Page Load Time» (Длительное время загрузки)
Фильтр накладывается в том случае, если страницы сайта загружаются слишком долго. Чаще всего это происходит из-за большого количество плагинов (возможно, конфликтующих между собой), большого количества скриптов, «слишком тяжелых» изображений или медленного хостинга.
Противодействие: Убедитесь, что страницы вашего сайта не переполнены плагинами. Их оптимальное количество — 5-7. Проверьте, не конфликтуют ли они между собой.
Проверьте качество и количество скриптов, скорость хостинга (например, при помощи Хост Трекера).
Сжимайте изображения. Благо, существует масса хороших сервисов. Например, Риот.
«Penguin» (Пингвин) & «Over Optimization»
Пингвин, пожалуй, самый знаменитый фильтр Гугл, от которого в свое время пострадало рекордное количество сайтов. Проще говоря — с хорошими позициями в поисковой выдаче они попрощались надолго.
Изначально «Пингвин» был задуман как фильтр, наказывающий за переоптимизированный текст.
Но в последующих обновлениях «Пингвин» вышел на тропу войны как с черным SEO (клоакинг, дубли страниц, скрытые ссылки и т.д), так и резкий прирост ссылочной массы.
Что касается «Over Optimization» — здесь, как понятно из названия, караются переоптимизированные страницы.
Противодействие: Первое, и самое главное правило: тщательное внимание к качеству контента. «БОЛЬШЕ НЕ ЗНАЧИТ ЛУЧШЕ»! Тексты должны быть «естественными» (т.е. не перегружены ключевыми словами), информативными, а в идеале — грамматически правильными.
Использовать разбавленные анкоры, т.е. без прямого вхождения.
Не использовать методы черного продвижения.
Не использовать «автоматическое продвижение».
Рекомендованная плотность ключевых слов на текст — 5-7%. Больше 10% — уже рискованно.
«Panda» (Панда)
Этот фильтр тоже наказывает за некачественный контент, но в большей степени обращает внимание на рекламу «не к месту».
А также: дублирование страниц, ворованный контент («ворованным» считается неуникальный контент, размещенный на других ресурсах. Уникальность текста должна составлять не ниже 80%), некачественные ссылки (нетематические).
История гласит, что после его выхода пострадало примерно 12% всех сайтов поисковой выдачи. Поэтому шутки плохи.
Противодействие: Само собой, оценка качества размещенного контента. Если его уникальность составляет менее 80% — срочная замена. Удаление нетематической рекламы.
«Page Layout»
Этот алгоритм оценивает эффективность информации, которая размещена на главной странице вашего сайта. А также количество рекламы, размещенной там же.
Алгоритм распознает структуру документа (страницы), и если верхняя часть сайта (без прокрутки) переполнена рекламой — сайт попадает под фильтр. Алгоритм появился еще в январе 2012-го года, и с тех пор регулярно обновляется.
ВАЖНО! В середине марта Гэри Илш подтвердил актуальность алгоритма.
Фильтры Яндекс
«АГС»
Приобрел дурную славу «самого жесткого и нещадно карающего» фильтра Яндекса. Карает за бесполезные сайты, чье единственное назначение — продавать ссылки. Читай: повышать позиции другого (основного) сайта, а это уже попахивает методами черной оптимизации, которую люто ненавидят все поисковики планеты.
Так что в большинстве случаев — карает справедливо, ведь прежде всего под прицел фильтра попадают сателлиты или сайты, созданные НУБами.
Внимание! Первым «маячком», заставляющим Яндекс задуматься, а не послать ли ваш сайт в АГС — это «пустота» сайта. Т.е. — отсутствие на нем полезной информации (контента).
Работает он так: из индекса исчезает подавляющее большинство страниц сайта (остается не более 10). Как результат — стремительное падение трафика/посещаемости.
Для того, чтобы не попасть под «АГС»-фильтр, следует запомнить четыре правила:
1. Знать меру, и не размещать много исходящих ссылок на сторонние ресурсы;
2. Помнить о качестве, и не ссылаться на нетематические ресурсы (или же делать это крайне умеренно);
3. Не дублировать страницы;
4. Стараться размещать уникальный контент.
Если уж такая беда с вами случилась, а вышеназванных проблем у вас (уже) нет, и вы уверены, что прошло достаточно времени для автоматического повторного индексирования сайта, есть смысл написать в поддержку Яндекса (вежливо, но настойчиво).
«Непот»-фильтр
По аналогии с АГС, фильтр создан для борьбы с черным продвижением, и сайтами, продающими ссылки. Как и АГС, наказывает за бесполезные сайты, чье единственное назначение — продавать ссылки.
Работает он так: ссылки с «наказаного» сайта теряют ценность, т.е. перестают передавать ссылочный вес основному продвигаемому ресурсу. В отличии от АГС, «основной» сайт хоть и теряет «донора», но под сам фильтр не попадает.
Для того, чтобы не попасть под «Непот»-фильтр, следует запомнить три правила:
1. Не продавать массово ссылки;
2. Не использовать много ссылок на нетематические ресурсы (и, соответственно, не покупать ссылки с нетематических ресурсов или сайтов с плохой репутацией);
3. Не использовать метод «автоматического продвижения».
Если уж такая беда с вами случилась, стоит пересмотреть ссылочную стратегию своего сайта. То есть — использовать ссылки только с тематических, и, по возможности, авторитетных.
Внимание! Существуют более мелкие фильтры, по типу «Ссылочный бум» (покупка огромного количества ссылок за короткий период) или «Фильтр за плохие ссылки» и т.д. Мы не будем подробно останавливаться на их изучении, но рекомендуем вам хорошо обдумать свою ссылочную стратегию перед тем, как что-то закупать.
«Ты — последний»
Как это часто бывает в случае с Яндексом, весь смысл фильтра скрыт в названии. Последний, и далеко не герой. Фильтр отбрасывает в конец поисковой выдачи сайты со скопированным контентом.
Работает он так: если вас заметили в скопированном контенте (напоминаем, что минимальная уникальность контента «для комфортной жизни» должна составлять 80%), ваш сайт начинает демонстрироваться либо на последних местах поисковой выдачи либо после нажатия «показать опущенные результаты».
Для того, чтобы не попасть под «Ты — последний»-фильтр, следует запомнить одно простое правило — следите за уникальностью вашего контента, и вовремя пресекайте попытки воровства (если он у вас на зависть всем).
Если уж такая беда с вами случилась, переписать текстовый контент и заменить изображения — самый быстрый вариант решения проблемы.
Внимание! Существуют более мелкие фильтры, по типу «Adult-content» или «Неприемлемый контент». Мы не будем подробно на них останавливаться, просто рекомендуем вам не размещать у себя на сайте порно, а также контент, разжигающий ненависть. А также внимательно закупать ссылки, и не использовать метод «автоматического продвижения» (который любит покупать ссылки в подобных ресурсах).
«Баден-Баден»
Один из самых новых алгоритмов Яндекса — ненавистник переоптимизированных текстов и криворуких копирайтеров. Фильтр наказывает сайты с переоптимизированными текстами. То есть такими, в которых содержится много воды и переспам ключевых слов.
Помните анекдот, в котором новый русский летел в самолете и был возмущен тем, что стюардесса сказала «Баден-Баден»? Мол, нечего нас дураками считать и бессмысленно повторять название города два раза. Вот и Яндекс страх как не любит бессмысленных текстов, наполненных ключевиками с ног до головы.
Для того, чтобы не попасть под «Баден-Баден»-фильтр, следует запомнить два простых правила:
1. Пользуйтесь услугами копирайтеров со стажем.
2. Если вы пишите текст самостоятельно — проверяйте его с помощью антиплагиаторов на количество воды.
Если уж такая беда с вами случилась, быстро заменить проблемный текстовый контент будет лучшим решением.
«Агрессивная реклама»
Что можно считать «агрессивной рекламой»?
Собственно, все то, что вы и сами с радостью забаните АдБлокером — навязчивые всплывающие окна, обманывающие элементы, реклама, которую невозможно отключить — и так далее. Фильтр существует с 2012 года, и успешно обновляется и по сей день. Кстати, самое лучшее описание этому фильтру дал сам Яндекс:
«Наверняка вы хотя бы раз замечали на сайтах всплывающие окна, похожие на уведомления от социальных сетей, предложения по обновлению ПО или сообщения от „антивирусов“ о заражении. Иногда это вполне безобидная реклама, но порой — инструмент для выуживания пароля или подписки пользователя на платные услуги через смс. Мы не хотим высоко ранжировать сайты, которые содержат „уведомления“, обманывающие пользователей, маскируясь под то, чем на самом деле не являются.Теперь Яндекс умеет определять сайты с подобным контентом, и в ближайшее время их позиции в результатах поиска будут понижены. Мы рекомендуем вебмастерам заранее проверить отсутствие таких „уведомлений“ на своих сайтах, чтобы изменения в ранжировании на них не повлияли. Группа пролетарского гнева»
Для того, чтобы не попасть под «Агрессивная реклама»-фильтр, стоит воздержаться от монетизации сайта в подобном роде. Как минимум, вспомните сами, как часто вас раздражает реклама в онлайн-кинотеатрах.
Если уж такая беда с вами случилась, максимально быстро уберите агрессивные pop-up элементы. И ждите повторной индексации сайта.
«Аффилиат»-фильтр
Один из фильтров, которые можно отнести к вопросу о «накрутке внешних факторов».
«Аффилиат»-фильтр борется с сайтами одной компании, которые ранжируются по одинаковым коммерческим запросам. Этот фильтр может постичь сайты, которые ранжируются в ТОПе. В случае наложения фильтра, один из таких сайтов остается на своей позиции, а остальные пропадают совсем или же очень сильно «падают в позициях».
Для того, чтобы не попасть под «Аффилиат»-фильтр, необходимо:
1. не быть компанией, имеющей несколько сайтов, которые ранжируются по одинаковым запросам.
2. если вы все-таки относитесь к вышеуказанному виду компаний, стоит быть изобретательным. А именно: у вашей «связки сайтов» должны быть разные владельцы доменных имен, разные сервера и ip адреса, желательно — разные дизайны и оформление. А в случае, если речь идет про очень конкурентные тематики — разные юридические владельцы и контактные данные.
Словом, у вашей «связки» не должно быть ничего общего.
Задача усложняется еще и тем, что ваши конкуренты дышат вам в спину. Обмануть их намного сложнее, чем поисковые системы. А функцию технической поддержки Яндекса можно обернуть и против вас, разумеется.