Найти тему
DFAKTOR

История поискового продвижения: как работали поисковые машины и как SEO-оптимизаторы продвигали сайты в выдаче

Современным пользователям поисковых систем зачастую кажется, что они были всегда — настолько удобен и прогрессивен этот инструмент. Но и «старожилы» Рунета, и все, кто связан с SEO помнят, как стремительно поисковики вошли в нашу жизнь и как быстро и радикально менялись их алгоритмы. Столь же оперативно приходится действовать и специалистам по оптимизации, чтобы вывести сайт на «заметные» позиции в выдаче.

Чтобы быть успешным сейчас и потом, нужно знать, что было раньше. Агентство «DFAKTOR — продвижение сайтов» напомнит, как появились и развивались поисковые машины, что такое «классическое SEO» в русскоязычном сегменте, как можно было вывести сайт на топ-позиции в прошлые десятилетия и что нужно делать для этого сегодня.

Как появились поисковые машины и как они работали

Появление поисковых машин связывают с началом 90-х годов ХХ века, когда Мэтью Грей создал первую подобную систему Wandex, а его единомышленники разработали аналогичные продукты — RBSE, Aliweb и прочие. Однако, они отображали страницы не по релевантности, а общим списком — пользователи получали упорядоченный по рубрикам список сайтов, содержащих запрос.

Веб-поиск в его сегодняшнем понимании появился так:

  • был реализован проект WebCrawler, где анализировались не только ключевые слова, но и весь текст страницы;
  • чуть позже появился уже более «раскрученный» Lycos, а за ним, в 1995 году — знаменитый поисковик AltaVista, лучший для своего времени;
  • AltaVista сохраняла лидерство до 2000 года, когда ее вытеснил созданный двумя годами ранее «тот самый» Google — ее авторы были настоящими революционерами, а их детище — прорывом в качестве поиска.

Новый алгоритм «Гугл» RageRank радикально повысил качество выдачи — вес страницы определялся числом ссылок на нее. Google за несколько лет стал мировым лидером среди поисковых машин, и сегодня конкурентов на Западе ему нет — в отличие от России.

Русскоязычные поисковые системы появились в РФ в 1996 году, причем сразу две — «Апорт» и Rambler. Первый проект, разработанный в компании «АГАМА», несколько лет был лидером, но затем отказался от своих алгоритмов, а сегодня превратился в интернет-магазин. Rambler был очень популярен и не сдавался дольше, оставаясь вторым по популярности поисковиком — после «Яндекса».

Главная на сегодня российская система Yandex.ru была представлена публике в 1997 году. Уже тогда она распознавала русскоязычные морфемы, расстояние между словами и ранжировала страницы по релевантности запросам. Данные «Яндекс» стал использовать «Апорт» (дизайн для обеих систем, кстати, разрабатывала студия А. Лебедева). К сегодняшнему дню поисковик стал главной российской альтернативой западным сервисам — Google и в меньшей степени Bing и Yahoo от Microsoft.

Ситуация «двоевластия» сложилась только в России и КНР — в остальных странах нет столь сильных конкурентов «Гугл», как Yandex и китайская Baidu.Российские SEO-специалисты и вебмастеры благодаря этому увеличивают шансы на привлечение аудитории: механизмы продвижения отличаются, и что-то хорошо работает для Google, а что-то — для «Яндекс». От выбора направления зависят и инструменты оптимизации. Она, как и поисковики, зародилась уже около двух десятилетий назад.

Развитие SEO: метатеги и ссылки

Уже с появлением поисковых машин стало очевидно: кто более «заметен» в выдаче, тот больше зарабатывает. Спрос породил предложение, и появилась новая профессия — специалист по Search Engine Optimization. Работа на первоначальном этапе выстраивалась на основе изучения принципа работы машины и подстройке под них для продвижения в выдаче по конкретным запросам. Это так называемое классическое SEO, для которого основными факторами ранжирования были текстовые.

Работа сводилась к контролю правильности написания заголовков, по которым индексировались страницы. Несколько позже к ним и keywords добавились проверки метатегов, title и отслеживание частоты появления ключевых для продвижения слов. Тексты оставались главным объектом внимания оптимизаторов несколько лет. Манипуляции с метатегами и прочими внутренними факторами давали возможность быстро продвигаться по нужным запросам, что привело к засилью рекламных сайтов в топе выдачи.

В начале 2000-х российское SEO становится полноценной индустрией со своими лидерами. Тогда же закончились «доссылочные» времена и основными факторами ранжирования стали ссылочные. Это разумно: индекс цитирования используется даже в научной, академической среде, и именно этот принцип стал особенностью PageRank. Алгоритм исчислял количество внешних обратных ссылок на ресурс и учитывал вес, «авторитетность» ссылающихся страниц. Это решило проблему релевантности, соответствия результата запросу и качественно улучшило поиск.

С 2002-2003 года для продвижения стало нужно учитывать количество и, что важно, качество ссылок. В SEO-обиход вошел термин тИЦ, введенный «Яндексом» для определения авторитетности ресурса по цитированию. Оптимизаторы и другие участники рынка быстро поняли, насколько сильно ссылки влияют на выдачу. Это привело к буму соответствующих инструментов:

  • появились биржи и агрегаторы ссылок (знаменитые SAPE, «Миралинкс», SeoPult и прочие), что позволило SEO стать прибыльной сферой;
  • SEO-специалисты стали обмениваться ссылками и торговать ими на форумах;
  • стало возможно покупать линки с ежемесячной оплатой, появились биржи, размещавшие ссылки в блогах и т. д.

Зависимость между затратами на ссылки и позициями в выдаче была прямой, а маржинальность оптимизаторского бизнеса — очень высокой. Так продолжалось до 2008-2009 года, когда поисковые системы начали активно бороться с манипуляциями и повышением релевантности, чистоты выдачи. Более совершенные алгоритмы машинного обучения завершили эпоху ссылок, и сегодня они уже не используются как основной инструмент.

Борьба за чистоту выдачи, поведенческие факторы и их «накрутка»

Первыми масштабными алгоритмами, направленными на борьбу с некачественными ссылками, стали «Пингвин» Google и АГС «Яндекса». С 2009 года расширилось число факторов, которые учитывались при ранжировании. Этому способствовало появление алгоритма «Матрикснет». Машинное обучение и очищение выдачи привело к тому, что на первый план вышли поведенческие факторы. В Yandex их учитывали уже с 2009, но с 2011 года поисковая система стала использовать фильтры за их «накрутку». Под ними оказалось множество сайтов, а прогнозировать бюджеты и сроки вывода ресурса в топ выдачи стало намного сложнее.

Учитывая, насколько велика была проблема с «накрутками» и торговлей ссылками в русскоязычном сегменте сети, можно понять «Яндекс», полностью исключивший ссылки из ранжирования по коммерческим запросам с 2014 года. Поначалу в это отказывались верить, но сегодня, чтобы добиться результата в выдаче Yandex, как и в Google, покупать ссылки бесполезно, если они не естественные — эта часть влияния осталась в силе. Необходимо приспосабливаться к новому времени комплексной поисковой оптимизации на основе совершенствования контента, юзабилити сайта, интернет-маркетинга и других инструментов.

Как работать над развитием сайта сегодня

Из-за новых «правил игры» поисковых машин для оптимизации нужно точечно подбирать средства, отслеживать результаты нон-стоп и, в случае с русскоязычным сегментом, учитывать коммерциализацию выдачи «Яндекса». Из-за высокого ранжирования собственных сервисов, проектов системы органические результаты смещаются на вторую-третью страницу, а свободные места на первой становятся предметом острейшей конкуренции.

Сегодня для эффективного продвижения и в «Яндекс» и в Google нужны естественные ссылки, которые появляются благодаря качеству контента сайта. Они иллюстрируют, насколько аудитория на самом деле заинтересована в ресурсе, а покупка линков бесперспективна. Ужесточающиеся фильтры систем и масштабные обновления принципов выдачи привело к смене действенных инструментов. По мнению экспертов в SEO, среди них лидируют следующие:

  • Ценность ресурса и его контента для аудитории. Необходимо, чтобы полезность продукта подчеркивалась, а владельцы ресурса и оптимизаторы понимали логику и особенности поискового спроса. Помогает в этом качественное семантическое ядро — максимально проработанное, детализированное. Это «фундамент» структуры, помогающий эффективно группировать страницы, ориентируясь на размещаемый на них контент. Такой принцип называется SILO-оптимизацией и помогает сайту лучше отвечать ожиданиям пользователей.
  • Удобство использования ресурса. Кроме понятной и логичной структуры важна простая навигация, быстрая загрузка страниц, качественный дизайн и адаптивная верстка. Каждый элемент должен быть нужным, находиться на правильном месте и работать «как должно», иначе пресыщенные пользователи будут уходить.
  • Техническая оптимизация. Ошибок и недоделок быть не должно, иначе сайт не получит трафик из поисковых систем. Поэтому важен глубокий анализ и аудит ресурса и постоянный контроль.

Инструментов оптимизации все еще много, но универсальных среди них уже нет. Агентство «DFAKTOR — продвижение сайтов» умеет работать в сложных условиях и сможет найти для вашего ресурса лучшее решение, которое даст конкретный, измеримый и нужный вам результат.