Найти тему
evilUnion

SEO. История противостояния поисковиков и оптимизаторов.

Оглавление

​Это отрывок из курса – "База IT для бизнеса за час"

SEO – Это поисковая оптимизация. Процесс работы с интернет-ресурсом для того, чтобы он попал вверх в поисковой выдаче поисковиков (Яндекс, Google) или получил дополнительные клики из поиска благодаря новому контенту.

Для того чтобы лучше обозначить эту тему, нам нужно выделить две роли и описать историю развития этого процесса.

Разработчик поискового алгоритма

Выпускник технического вуза, разбирается в информатике, математике и машинном обучении.
Использует в работе:
научный метод

SEOшник

Закончил двухнедельные курсы, читает наискосок статьи по SEO, смотрит видеоуроки, опаздывает на встречи. Основной метод аргументации — «так принято делать».
Использует в работе:
танцы с бубном*
Это аллегория того, что специалисты разных направлений в случае непонимания каких-то процессов ссылаются на фразы «так принято делать» или «так делают другие». Сравнение такого подхода с ритуальными танцами, чтобы вызвать дождь.

Конечно, есть исключения из правил. Есть хорошие и ответственные специалисты. Просто мы их не видели.

История противостояния

Для поисковых алгоритмов SEOптимизация — это паразитизм бизнеса. Для бизнеса это способ заработать больше. С появлением первых поисковых алгоритмов появились первые оптимизаторы. Задача оптимизатора — обмануть поисковый алгоритм, задача разработчика — сделать так, чтобы его алгоритм нельзя было обмануть и чтобы этот алгоритм мог наказывать такие сайты.

Обозначим основные этапы этой истории. Опишем, как работал алгоритм и как его пытались обмануть. Естественно, есть еще какие-то события, но мы их опустим.

Этап 1

Поисковый алгоритм считал количество попаданий ключевых слов в тексте страницы. Чем больше попаданий, тем выше статья в поиске.
Первые SEOшники добавляли очень много ключевых слов в текст. Из-за этого страдал сам текст, его становилось сложно читать. Естественно, со временем в алгоритм были добавлены новые правила, которые наказывали сайты за подобные решения.

Этап 2

Google внес значительную лепту в улучшение этого алгоритма. Он изобрел PageRank. Новое правило: чем больше ссылок на страницу, тем лучше эта страница. При этом учитывается вес каждой ссылки на сайт. Не очень-то оригинальная мысль. Похожий подход использовался в научных статьях задолго до этого. Индекс цитирования.

Естественно, это породило жуткий ответ со стороны SEO — биржи ссылок. SEOшники закупали ссылки на биржах, при этом надо было соблюдать правила, чтобы не получить бан. Создавались разные схемы передачи ссылок друг другу, через третьи сайты и т. д. Больше информации можно найти здесь.

Этап 3

На этом этапе поисковики вводят анализ поведенческих показателей. Ходят слухи, что после введения таких алгоритмов несколько SEOшников совершили суицид, так как предыдущие методы оптимизации умерли. Также очень резко пропали «контент-фермы». Если вы пользовались поисковыми системами в конце 2000-х, то, наверно, помните огромное количество сайтов с дурацким контентом.

Какие методы анализа поведения есть:

  • Клиент после посещения вашего сайта не вернулся обратно в поисковую систему. Это значит, он нашел то, что искал. Поисковая система выполнила свою цель.
  • Многорукий бандит. Поисковая выдача рандомизируется и выдает разные сайты из подходящих. В топе остаются те, которые выигрывают аукцион среди других.
  • К выдаче подключаются нейроны сети, которые оценивают огромное количество факторов одновременно. Яндекс в 2017 году дал доступ к своей библиотеке градиентного бустинга CatBoost, которая используется для задач ранжирования с 2009 года. Что-то нам подсказывает, что обычный SEOшник не понимает, что это такое и как работает машинное обучение.
    А мы его использовали вот
    тут и тут.

Белая оптимизация

Это выполнение требований поисковых систем, которые легко найти в их документации. Есть специальные сервисы, которые позволяют это проверять.

Google Lighthouse — сервис, который оценивает качество сайта. Его приобрел Google для оценки сайта, перед тем как отправить его в тестовую выборку. Нужно стремиться к 100 баллам по всем пунктам. Исключение: показатель performance может быть от 90, потому что именно его, бывает, невозможно разогнать до 100.

У поисковых сайтов есть специальные сервисы для мониторинга поисковых позиций сайта. Это Google Search Console и Яндекс.Вебмастер. Следует выполнять все требования этих систем.

Основная идея белой оптимизации сводится к улучшению вашего сайта:

  1. Увеличение скорости загрузки ваших страниц
  2. Написание качественного контента и создание правильной структуры сайта
  3. Адаптация под мобильные устройства
  4. Оптимизация тегов под правила сетей
  5. Создание трафика на сайт

Серая и черная оптимизация

Это методы, за которые вы можете получить бан или санкции от поисковых систем. Мы настоятельно рекомендуем этим не заниматься. Мы не раз встречали сайты с баном из-за некорректной работы SEOшников. Найм специалиста за 50 000 рублей обернулся потерей нескольких миллионов.

Перечисленные методы работали в 2000-х. Но сейчас этим лучше не заниматься.

  1. Закупка ссылок на биржах
  2. Накрутка поведенческих характеристик
  3. Написание спам-текстов
  4. Создание сети сайтов, ссылающихся на вас

Полезные статьи

SEO умер? 2021–2022 — закат эпохи SEO-продвижения

20 SEO-мифов, которые должны умереть в 2020

-2