На пике ссылочного продвижения (по крайней мере в Рунете) была целая эпоха автоматического продвижения. И действительно существовали инструменты, которые действия по простановке ссылок на сайт пытались автоматизировать. Были системы-линкаторы, группы систем, которые занимались ссылкообменом с несколькими сайтами практически в автоматическом или полуавтоматическом режиме. Такая тактика в течение довольно большого промежутка времени хорошо работала. Можно было по конкурентным запросам выйти в топ в Яндексе и Google только за счет этого.
Потом стали появляться системы платной простановки ссылок: «Кликс», которая размещала на главных страницах сайта, позже «Сапа» и еще несколько. Почти все из них еще существуют в таком еле живом состоянии. Есть «Сапа», которая до сих пор живее всех живых, хотя у них обороты упали заметно после всех санкций Яндекса и снижения влияния ссылок.
Системы, созданные на основе бирж ссылок («Сапы» в том числе), практически полностью автоматизированы. Они давали рекомендации, например, seopult, webeffector, rookee в какой-то степени. И предоставляли возможность выполнить их рекомендации: говорили, что на этой странице нужно ключевики употребить столько-то раз. Но основную, наиболее эффективную работу по простановке ссылок они брали на себя, вы выбирали только страницу, которую хотите продвигать. И они вам с этим выбором помогали. И с запросами, по которым продвигаться, тоже. Нужно было только принять решение, хотите по этим запросам продвигаться или нет.
Как это работало
Система рекомендовала бюджет, который нужно вкладывать, вы с ним соглашались или его меняли, и она автоматически снимала, закупала ссылки, проверяла эффективность и т.д. Это была отличная вещь, и она работала в течение нескольких лет. «Буксовать» стала, когда появилось довольно много желающих продвинуться автоматически. И все нормальные фильтры системы стали махом забиваться. Все нормальные ссылки уже проставили, а клиенты все идут. И им нужно было где-то брать еще. В итоге их фильтры по качеству ссылок стали расширяться, они вынуждены были брать все больше и больше более низкого качества, потом еще более низкого. И в последние годы существования таких систем качество ссылок, которые они проставляли, было так себе.
Кроме этого, там то запускалось продвижение, то останавливалось. Деньги на балансе кончились, ссылки резко снялись и так далее. Здесь это была не вина самих систем, но для поисковиков все выглядело довольно неестественно, и продвижение хоть и не «убивалось», но страдало.
И даже когда продвижение стартовало и пользователь соглашался с рекомендованным системой бюджетом, то ссылки, как правило, закупались сразу резко. Потом уже они пытались вводить некоторую постепенность, но это все равно было довольно быстро. В течение месяца могла проставиться тысяча. Это очень много, это ссылочный взрыв, который уже тогда был не очень приятной штукой, а сейчас тем более.
История стала заканчиваться в тот момент, когда сначала Google ввел свой Пингвин, потом Яндекс — Минусинск. Оба фильтра штрафовали за такое дерзкое использование ссылок. Во-первых, ссылочные биржи стали чахнуть, во-вторых, все системы автоматизации тоже. Очень сильно их подкосило, когда в одной из популярных автоматических систем многие сайты «накрыло» еще и поведенческим фильтром, потому что они пытались накручивать переходы по ссылкам, которые проставляли. И в какой-то момент действительно стало лучше, то есть те, по которым были реальные переходы, работали несколько лучше, чем когда переходов не было, и они просто были где-то проставлены. Но не факт, что это именно усиление самих ссылок. Возможно, была просто отдельная метрика, которая показывала, что на сайт идет разносторонний трафик, и именно это давало усиление, а не то, что ссылки стали сильнее работать.
Как только это открылось, накрутку были вынуждены убрать, но сайты уже «влетели». Многие сайты пострадали в этой, многие — в параллельно работающих системах накрутки типа «юзератора». Тогда от этого отказались. Уже за ссылки были санкции, добавились санкции за поведенческие. Кстати, «юзератор» и подобные были тоже системами автоматизации. Это была уже не ссылочная, а поведенческая эра. Было уже 7 или 8 версий алгоритмов у «юзератора», которые они пробовали подбирать. Сначала боты, потом живые люди, которые имитировали действия пользователей. Работало оно до того, как Яндекс в очередной раз не палил тему и не прикрывал лавочку, штрафуя сайты, которые использовались.
Санкции за накрутку поведенческих довольно жестокие. Я давно не видел влетаний за нее, но в последние разы сайты улетали на 8-9 месяцев с момента остановки накрутки. Поэтому, возвращаясь к нашей теме, любая автоматизация SEO-продвижения практически полностью основана на использовании какого-то одного фактора, который в определенный момент времени самый сильный — сверхфактор такой. Выкрутив только его на максимум, можно даже при слабых остальных получить топы. Такими были ссылки и поведенческие факторы.
Можно ли сейчас продвигать сайт автоматически?
На данный момент такое сделать нельзя, потому как самостоятельные факторы ослабли. Они до сих пор сильны, но получить топы только за счет одного нельзя. Теперь нужно, чтобы сайт был разносторонний и, как минимум, хороший. И выкруткой можно подтолкнуть, но есть риск санкций.
Все остальные системы только частично помогают автоматизировать ряд действий. Например, те, что помогают проводить работу с ключевыми словами. Это различные базы («Букварикс»), это система анализа конкурентов (Serpstat), система анализа ссылок (тот же Serpstat и «Ахревсе»). Это анализ эффективности запросов, например, наш сервис «Муравейник Tools» и все это — разные аспекты автоматизации. Дальше есть системы по краулингу, это спайдеры (Netpeak Spider и Screaming Frog), которые обходят ваш сайт аналогично тому, как это делают роботы, и помогают выявить ошибки. Есть системы, которые помогают просканировать весь сайт на наличие неуникальных текстов, например, у Etxt есть такая система. Это разные аспекты, многие из них мы используем, так можно удешевить стоимость рутинных работ за счет использования некоторой автоматизации.
Это есть, и оно здорово помогает. Мы активно используем чужие системы, пишем свои. Но это только частичная автоматизация ряда работ, основное ядро делается аналитиками, вручную, и все системы только помогают продвигать сайт, но никак не автоматизируют полностью всю работу.
Более подробно в других статьях, которые есть на нашем сайте