Найти в Дзене
Маркетинг и SEO

Полный SEO-аудит сайта - Готовим сайт к трафику через LLM

Знаете, что меня всегда забавляло? Когда агентства продают «SEO-аудит за 100 000 р» — с пафосом, таблицами, слайдами, диаграммами. А по факту — это вполне понятный, структурный процесс, который можно сделать самостоятельно. Без магии. Без огромного бюджета. Просто если понимать, на что именно смотреть. Я уже несколько лет делаю такие аудиты — и для своих проектов, и для клиентов. Со временем выработалась система, где всё разложено по полочкам: техническая часть, контент, внутренняя структура и поведение пользователей. И да, у нас, в России, есть отличные инструменты, чтобы провести аудит не хуже, чем западные SEO-агентства. Так что, если вы хотите увидеть реальную картину своего сайта — кто его видит, кто нет, где он теряет трафик и почему — давайте разбираться. Для начала — без фанатизма. Вам не нужно двадцать сервисов и подписка на всё подряд. Достаточно 5–6 инструментов, которые закроют основные задачи: анализ структуры, скорости, контента и поведения пользователей. Вот мой базовый
Оглавление

Знаете, что меня всегда забавляло? Когда агентства продают «SEO-аудит за 100 000 р» — с пафосом, таблицами, слайдами, диаграммами. А по факту — это вполне понятный, структурный процесс, который можно сделать самостоятельно. Без магии. Без огромного бюджета. Просто если понимать, на что именно смотреть.

Я уже несколько лет делаю такие аудиты — и для своих проектов, и для клиентов. Со временем выработалась система, где всё разложено по полочкам: техническая часть, контент, внутренняя структура и поведение пользователей. И да, у нас, в России, есть отличные инструменты, чтобы провести аудит не хуже, чем западные SEO-агентства.

Так что, если вы хотите увидеть реальную картину своего сайта — кто его видит, кто нет, где он теряет трафик и почему — давайте разбираться.

Инструменты и база

Для начала — без фанатизма. Вам не нужно двадцать сервисов и подписка на всё подряд. Достаточно 5–6 инструментов, которые закроют основные задачи: анализ структуры, скорости, контента и поведения пользователей.

Вот мой базовый набор:

  • Google Таблицы — простая таблица для фиксации всех данных по аудиту.
  • Screaming Frog — классика технического анализа. Для быстрой проверки сайта на битые ссылки, редиректы, дубли и мета-ошибки.
    Google Analytics и Яндекс.Метрика — две стороны одной монеты. Первая даёт видимость в Google, вторая — реальное поведение пользователей в России. Метрика особенно хороша картами скроллов, кликов и тепловыми картами.
  • Google Search Console и Яндекс.Вебмастер — обязательные панели для проверки индексации, технических ошибок и ключевых запросов.
  • PageSpeed Insights — чтобы оценить скорость загрузки и показатели Core Web Vitals.
  • KeySo, Арсенкин, Topvisor — мои фавориты для анализа семантики, позиций и конкурентной среды.
  • KeySo удобен для поиска новых тем и кластеризации ключей.
  • Арсенкин даёт крутые данные.
  • Topvisor — отличен для мониторинга позиций и отслеживания динамики.

Комбинация этих инструментов дает полную картину: вы видите техническое здоровье сайта, поведение аудитории и состояние контента.

Индексация и краулинг

Первое, что я проверяю при любом аудите — а вообще Google и Яндекс видят сайт как надо?
Удивительно, но у многих бизнесов 20–40 % страниц просто не индексируются. Они существуют, но для поисковиков — как будто их нет. И никакая оптимизация не спасёт, если страница не попадает в индекс.

Чтобы проверить это, я использую два инструмента:

  • Яндекс.Вебмастер — отличное зеркало ситуации в выдаче, особенно для локальных проектов.
  • Google Search Console — показывает, какие страницы в индексе и какие «отвергнуты» (обычно из-за дублей, noindex, каноникал-ошибок).

Параллельно запускаю Screaming Frog — чтобы увидеть, что реально краулится, какие страницы недостижимы (404, 5xx, 301-цепочки, «сироты» без внутренних ссылок).

Маленький лайфхак: если сайт большой (интернет-магазин, СМИ, корпоративный портал), не запускай полный краулинг сразу — он может съесть весь ресурс компьютера. Разбей проверку на разделы: каталог, блог, карточки, служебные страницы. Так ты быстрее найдешь проблемные зоны.

И ещё момент: обязательно сверяйся с файлом robots.txt и sitemap.xml.

Внутренние ссылки — скрытый источник роста

Я обожаю этот этап. Потому что внутренняя перелинковка — это почти магия. Она реально способна поднять сайт в выдаче без внешних ссылок и вложений.

Логика простая: если поисковик легко проходит по страницам, он лучше понимает структуру и важность контента.
Чем ближе страница к главной (по кликам), тем выше её шанс на видимость.

Что я делаю:

  1. В отчёте Screaming Frog смотрю — всё, что глубже трех кликов, помечаю. Это нужно потом проверить есть ли они в выдаче и как устроена логика у тех, кто в ТОПе.
  2. Далее — внутренние ссылки на страницу. Если меньше 5–6 входящих, добавляю в приоритет на перелинковку.
  3. Использую Арсенкин или KeySo для поиска контекстных точек, где можно добавить ссылки естественно (через анкорные фразы или тематические упоминания).

Важно не переборщить — перелинковка должна быть естественной, не «сеошной кашей». И ещё: делай ссылки из высокотрафиковых страниц на слабые. Тогда «вес» действительно перераспределяется.

Скорость загрузки и мобильная версия

Если честно, я раньше недооценивала скорость загрузки.
Но потом один проект буквально “просел” в выдаче, и оказалось — мобильная версия сайта грузилась 6 секунд. А для пользователя это вечность (особенно когда мобильный интернет тормозят или выключают).

Скорость — это не просто комфорт, это фактор ранжирования. И не только для Google. Даже ChatGPT и другие ИИ-системы, которые парсят сайты, «бросают» медленные страницы, не дождавшись загрузки.

PageSpeed Insights — для общей оценки (смотрю отдельно Desktop и Mobile).

Для мобильных устройств я особенно внимательно смотрю блок “Time to Interactive(TTI)” — если он больше 3 секунд, это тревожный сигнал.

Несколько простых вещей, которые почти всегда дают результат:

  1. Сжать изображения (особенно фоновые и баннеры).
  2. Подключить lazy-load для медиа.
  3. Убрать ненужные скрипты (часто их десятки).
  4. Настроить кэширование — банально, но работает.
  5. Проверить шрифты — они часто занимают больше, чем кажется.

Как проверить TTI?

Chrome DevTools → Вкладка Performance.

Lighthouse → Отчет Core Web Vitals.

WebPageTest → Точные метрики для глубокого анализа.

Поможет толковый программист, но часть работы на небольшом сайте можно сделать самостоятельно.
Скорость — это не про “погоню за зелёными кружочками”, а про UX, SEO и конверсию.
Если страница грузится медленно, человек просто уходит. И поисковик уходит вместе с ним.

404 и битые ссылки

Каждый раз, когда я начинаю аудит, обязательно нахожу десятки (иногда сотни) 404-страниц. И ладно бы это были удалены старые акции — нет, часто туда ведут живые ссылки из блога или меню.

Важно понимать: 404 — это не всегда плохо. Иногда страница действительно должна исчезнуть из индекса. Проблема, когда битые URL всё ещё получают трафик или ссылки.

Что можно посмотреть:

  • В Screaming Frog или Netpeak Spider фильтрую все страницы со статусом 404 и 5xx.
  • Проверяю, есть ли на них входящие ссылки. Если есть — настраиваю 301-редирект на релевантную страницу.
  • Заглядываю в Яндекс.Вебмастер → и в Search Console - там тоже есть отчеты об ошибках и удаленных страницах.
  • Смотрю, какие из 404 всё ещё получают клики или показы — это те, что нужно спасать!!!

Ещё полезно проверить, куда ведут старые внутренние ссылки. Иногда CMS (особенно на WordPress) сама создаёт битые пути.

Главное правило:

Если страница умерла — дайте пользователю новый путь.
Если страница жива — помогите поисковику дойти до неё.

Дублирующийся контент

О, дубли — моя личная боль. Почему это важно?
Потому что когда поисковик видит похожие страницы, он просто не понимает, какую из них показывать в выдаче. В итоге — теряется вес, а позиции падают.

Где чаще всего прячутся дубли:

  1. Фильтры и сортировки (например, ?color=black, ?sort=price).
  2. HTTP и HTTPS версии — если не настроен редирект.
  3. WWW и без WWW.
  4. Одинаковые тексты в карточках товаров — особенно в интернет-магазинах.
  5. Копии страниц для печати или AMP-версии.

Если сомневаешься, оставить страницу или удалить — смотри поведенческие данные (Метрика). Если там ноль трафика и ноль времени на странице — смело объединяй или убирай.

Нерелевантный контент

Иногда сайт превращается в свалку из старых статей, экспериментов и “ой, я просто тестировала тему”. Я сама через это проходила: когда начинаешь вести блог, хочется писать обо всём — и про SEO, и про продуктивность, и про новые инструменты. Но поисковик видит всё иначе.

Google и Яндекс любят тематическую целостность.
Если сайт про SEO, то статья “5 лучших приложений для тайм-менеджмента” сбивает фокус. Она может даже собрать трафик, но не укрепит авторитет в нише.

Что я делаю, когда чувствую, что контент «расползся»:

  1. Вытягиваю все заголовки статей в таблицу и фильтрую по ключевым словам.
  2. Всё, что не содержит мою основную тему (например, “SEO”, “продвижение”, “контент”, “поисковики”) — попадает в зону ревизии.

Убирай всё, что не усиливает твою экспертизу. Пусть сайт говорит о тебе как о специалисте, а не как о человеке, которому просто «много чего интересно».

Слабые кластеры

Если говорить простыми словами, кластер — это группа страниц, которые связаны одной темой. Когда страниц мало или они не связаны между собой, получается слабый кластер — и даже хорошая статья может не выстрелить.

Иногда, чтобы страница попала в ТОП, ей просто нужна “поддержка друзей” — тематических материалов, которые усиливают главный смысл.
Не всегда нужно переписывать текст — иногда нужно добавить контекст вокруг.

Качество контента (оптимизация по леммам и интентам)

Вот где начинается настоящая магия SEO — работа с леммами и интентами.
Если коротко:

  • Леммы — это базовые формы слов (например, «продвижение», «продвигать», «продвигаем» — одна лемма).
  • Интент — это намерение пользователя: он хочет купить, узнать, сравнить или просто вдохновиться.

Раньше я писала тексты, ориентируясь только на ключи. Сейчас — только на интенты и семантические ядра. Потому что алгоритмы (особенно Яндекс и Google) всё лучше понимают смысл, а не набор слов.

Например, если интент «сравнить», то статья должна содержать таблицы, плюсы и минусы.
Если интент «купить» — нужны конкретные выгоды, цена, призыв к действию.
Если «понять» — значит, должно быть объяснение простыми словами, примеры и графики.

Оптимизация теперь — это не про «вставить ключи», а про понять, что человек хотел найти. И если твой текст отвечает на этот запрос лучше других — алгоритм это увидит.

On-page SEO — основа, без которой ничего не работает

Я часто замечаю: владельцы сайтов гонятся за ссылками, закупают статьи, настраивают автоматизацию… а базовые вещи по On-page так и остаются “на потом”.
А ведь именно они дают тот самый быстрый, честный прирост позиций — без бюджета и танцев с бубном.

On-page SEO — это то, что мы можем контролировать на 100%: тайтлы, заголовки, структура, ключевые леммы, интенты и качество кода страницы.
И если вы всё сделали правильно, даже небольшой сайт может выбиться в ТОП.

Продвинутая настройка — для тех, кто хочет чуть больше

  • Использую Арсенкин или KeySo для анализа плотности лемм — они показывают, не “переспамлен” ли текст.
  • Проверяю структуру с точки зрения интента: соответствует ли статья ожиданию пользователя. Например, если это запрос “купить SEO-аудит” — значит, должны быть цены, CTA и преимущества, а не “10 советов по оптимизации”.
  • Добавляю микроразметку (Schema.org) — контакты, отзывы, хлебные крошки.
  • Проверяю, чтобы не было битых ссылок и пустых мета-тегов.

Оптимизация под ИИ — новый уровень SEO

Если честно, я долго относилась к ChatGPT и прочим “умным системам” с легким скепсисом. Пока не заметила, что пользователи начали приходить… из ответов ИИ.
С тех пор я пересмотрела подход к оптимизации.

Сегодня поисковая выдача перестает быть единственной ареной борьбы за внимание.
Контент индексируют и ИИ-системы — ChatGPT, Perplexity, Claude, Grok, Bing Copilot и другие.
И они выбирают источники по своим принципам: скорость, смысловая точность, структура и доверие к сайту.

Как адаптировать сайт под ИИ

  1. Структура текста
    ИИ-алгоритмы читают контент не глазами, а как набор логических блоков.
    Поэтому заголовки (H2–H3) должны быть информативными и содержать смысл, а не просто “часть 1”, “часть 2”. Чем понятнее структура, тем выше шанс, что ИИ вытащит ваш фрагмент как цитату или ответ.
  2. Ясность и конкретика
    Чем меньше воды, тем больше шансов попасть в “обучающую выборку”.
    Фразы типа “возможно, стоит попробовать” ИИ просто игнорирует.
  3. Формат ответов
    Добавляй короткие списки, цифры, чек-листы. ChatGPT и Perplexity обожают структурированный контент — им проще “цитировать” списки, чем длинные монологи.
  4. Экспертность и упоминания бренда
    ИИ выбирает источники, на которые часто ссылаются или цитируют. Поэтому важно быть упомянутым в других текстах и медиа.
    Делай гостевые посты, участвуй в подборках — всё это помогает сформировать “обучающую сеть доверия”.
  5. Оптимизация данных доверия
    Указывай реальные данные: имя, фото, соцсети, ссылки на другие публикации.
    Чем больше сигналов об авторстве, тем выше шанс, что ИИ “поймёт”, кто ты и что за тобой стоит экспертность.

Что делать с точки зрения SEO-техники - будет в конце статьи!

Новые темы и кластеры

Когда ты уже укрепила основные направления, самое время искать новые точки роста — темы, под которые ещё нет страниц. Это не просто добавление контента ради контента. Это стратегия: “я вижу спрос — я создаю предложение”.

Где искать идеи:

  1. Search Console → “Запросы с показами, но без кликов” — золото.
    Это те темы, по которым твой сайт уже мелькает, но не имеет релевантной страницы.
  2. Яндекс.Вебмастер → Анализ поисковых запросов.
    Иногда можно найти формулировки, о которых ты даже не думал.
  3. KeySo → раздел “Расширение ключевых слов”.

Тотальное доминирование по теме

Есть момент, когда просто “быть в выдаче” уже недостаточно. Нужно большее — тотального присутствия.
Чтобы человек забил в поиск, и на первой странице видел всё твоё: статью, видео, пост, гайд, а может, даже отзыв клиента.

Это и есть тематическое доминирование — когда ты не просто конкурируешь, а заполняешь всё пространство вокруг темы.

Что значит “тотальное доминирование”

Это не про один ТОП-1.
Это когда:

  • твоя основная статья в выдаче,
  • видео на YouTube или VK Видео всплывает по тем же запросам,
  • пост на Дзен или Telegram усиливает охват,
  • обсуждение в комментариях или на форуме добавляет доверия,
  • а ИИ-платформы вроде ChatGPT используют твой материал как источник.

Когда пользователь ищет ответ — он везде встречает тебя.
Это не магия, а стратегия.

Почему это работает

Потому что алгоритмы уже не делят “контент” и “автора”.
Они видят экосистему смыслов.
Когда ты говоришь об одном и том же — но с разных сторон и на разных платформах — у тебя формируется цифровая репутация эксперта.

Анализ конкурентов

Иногда, чтобы найти свою точку роста, достаточно просто… посмотреть по сторонам.
Я обожаю этот этап: анализ конкурентов всегда открывает неожиданные идеи.

Не нужно копировать — нужно понимать логику, по которой они выигрывают.

Что я смотрю:

  1. Типы контента.
    Что у конкурентов в приоритете: статьи, видео, лендинги, чек-листы?
    Если они делают акцент на одном формате, я иду в соседний — там меньше шума.
  2. Ключевые слова и интенты.
    В KeySo можно увидеть, по каким темам они получают трафик.
    Часто у конкурента “проседает” целый кластер — и это твой шанс туда зайти.
  3. Ссылочный профиль.
    Через Ahrefs (если доступен) смотрю, откуда у них ссылки.
    Иногда один хороший гостевой пост даёт больше, чем десятки SEO-ссылок.
  4. Позиционирование.
    Как они “говорят” о себе — тон, подача, структура CTA.

Заключение

Если коротко:
SEO-аудит — это не разовая проверка, а привычка держать руку на пульсе сайта.
Алгоритмы меняются, тренды приходят и уходят, но суть остаётся:

  • контент должен быть полезным,
  • структура — логичной,
  • а страница — быстрой и понятной.

Сейчас всё больше решает смысл. Не просто “ключевые слова”, а то, насколько ты отвечаешь на вопрос человека и ИИ.

В моей практике часто выстреливает такое: Даешь клиенту не как раньше ТЗ на статьи с ключевыми словами, а просто находишь бомбические темы и он выходит в ТОП 10. Решает тема и ее подача, а не ТЗ (добавьте 1000 слов, следите за объемом а потом еще вот эти слова тоже добавьте).

И самое важное — мой новый чек-лист

После всех этих шагов у меня накопилось столько практики, что я собрала новый чек-лист из 68 пунктов — «Как точно попасть в ИИ-поиск”.
Это по сути алгоритм адаптации сайта под искусственный интеллект.

Я отправлю его всем, кто подпишется на мой Telegram по этой ссылке - SEO на каблуках.