Найти в Дзене
Юрии Федотов | SEOTOP

80% поисков без кликов - как SEO выживает в эпоху AI-ответов

Человек вбивает запрос в Яндекс. Алиса на YandexGPT 5 формулирует ответ, цитируя три источника. Пользователь закрывает вкладку. На ваш сайт он так и не зашел - хотя вы в топ-3. Я отслеживаю 150+ проектов и вижу этот сценарий все чаще. По последним данным, до 80% поисковых сессий заканчиваются без единого клика. Google AI Overviews снижают CTR органики на 58%. А вот конверсия тех немногих, кто все-таки переходит после AI-ответа, выше в 4.4 раза. Парадокс? Нет - новая реальность, к которой нужно адаптироваться. И я расскажу, как именно это делать на российском рынке. Декабрь 2025-го изменил все Три Core Update за год - это много даже для Google. Но декабрьское обновление стало по-настоящему переломным. Helpful Content System перестала работать как отдельный фильтр - ее зашили в ядро ранжирования. Раньше сайт мог попасть под фильтр и потом выйти. Теперь такого механизма нет: Google просто не видит смысла показывать контент без реальной ценности. На моей выборке из 150 сайтов картина одноз

Человек вбивает запрос в Яндекс. Алиса на YandexGPT 5 формулирует ответ, цитируя три источника. Пользователь закрывает вкладку. На ваш сайт он так и не зашел - хотя вы в топ-3.

Я отслеживаю 150+ проектов и вижу этот сценарий все чаще. По последним данным, до 80% поисковых сессий заканчиваются без единого клика. Google AI Overviews снижают CTR органики на 58%. А вот конверсия тех немногих, кто все-таки переходит после AI-ответа, выше в 4.4 раза. Парадокс? Нет - новая реальность, к которой нужно адаптироваться. И я расскажу, как именно это делать на российском рынке.

Декабрь 2025-го изменил все

Три Core Update за год - это много даже для Google. Но декабрьское обновление стало по-настоящему переломным. Helpful Content System перестала работать как отдельный фильтр - ее зашили в ядро ранжирования. Раньше сайт мог попасть под фильтр и потом выйти. Теперь такого механизма нет: Google просто не видит смысла показывать контент без реальной ценности.

На моей выборке из 150 сайтов картина однозначная - ресурсы с рерайтом просели на 30-60% по видимости.

Яндекс пошел еще дальше. Нейросети Y3 и Y4 распознают страницы без реальной ценности с точностью 99%. Я видел это на проекте интернет-магазина электроники: клиент залил 2000 GPT-описаний товаров и через два месяца потерял 40% органики. Технически сайт был безупречен - все метрики скорости в зеленой зоне. Не помогло. Четыре месяца переработки с привлечением технических специалистов - только после этого трафик начал возвращаться.

Почему идеальный PageSpeed больше не спасает

Вот парадокс, который я наблюдаю на проектах. Сайты с идеальными Core Web Vitals теряют позиции. А ресурсы с посредственной скоростью - растут. Анализ 500+ сайтов после декабрьского обновления показал четкую закономерность:

- Сильные E-E-A-T сигналы — рост на 2-5 позиций

- Только техническая скорость — просадка на 3-8 позиций

- AI-контент без редактуры — выпадение из индекса

Скорость - гигиенический минимум. Как чистый пол в ресторане. Без нее нельзя, но посетители приходят не за этим.

Что же работает? E-E-A-T - четыре буквы, которые Google поставил во главу угла. Опыт, экспертиза, авторитетность, надежность. Поисковик оценивает не страницу, а человека за ней. Я проверял экспериментом: две одинаковые статьи на одном сайте - одна с полным author box и биографией, другая анонимная. Через три месяца статья с авторством собрала в 2.3 раза больше переходов из поиска.

GEO - не замена SEO, а надстройка над ним

Generative Engine Optimization. Звучит как очередной модный термин, но за ним стоит конкретная задача: стать тем источником, который AI процитирует.

ChatGPT, Perplexity, Google AI Overviews, Яндекс с YandexGPT 5 - все они отвечают на вопросы пользователей, цитируя чужой контент. Вопрос: будет ли среди цитируемых ваш сайт?

Что я понял на практике:

- Длинные материалы (от 1500 слов) цитируются AI почти в три раза чаще коротких

- FAQ-разметка в schema.org удваивает шансы попасть в цитату

- Первые два предложения каждой секции должны работать как готовый ответ - AI выхватывает фрагменты, а не читает всю статью

- Нумерованные списки подхватываются алгоритмами охотнее сплошного текста

- URL вида `/blog/kak-nastroit-seo/` цитируется на 11% чаще, чем `/blog/post-12345/`

- Ссылки на первоисточники усиливают доверие AI к вашему контенту - ссылайтесь на данные, а не на пересказы

В конце 2025-го мы с клиентом из IT-сферы взяли 15 статей и переформатировали их под эти принципы. Ни одного нового текста - только реструктуризация существующих. Через два месяца статьи начали появляться в AI Overviews, органический трафик вырос на 34%.

Яндекс проверяет ваш бизнес офлайн

Отдельная история - коммерческие факторы Яндекса. Поисковик буквально проверяет, существует ли ваш бизнес в реальности.

Что смотрит алгоритм:

1. Реквизиты (ИНН, ОГРН) на странице контактов - и их совпадение с ЕГРЮЛ

2. Реальный адрес, отмеченный в Яндекс.Картах

3. Заполненная карточка в Яндекс.Бизнесе со свежими отзывами

4. Актуальные цены и условия доставки

5. Рабочие контакты - Яндекс иногда проверяет звонками

Один из моих клиентов из Краснодара после оптимизации карточки в Яндекс.Бизнесе и сбора 50 реальных отзывов увеличил звонки с органики на 45% за четыре месяца. До 30% трафика локальных компаний приходит через геосервисы - и этот канал многие игнорируют.

Ссылки работают, но правила другие

Массовая закупка на Sape и Miralinks в 2026-м - русская рулетка. И Google, и Яндекс научились распознавать неестественные паттерны: резкий рост ссылочной массы, одинаковые анкоры, ссылки с нетематических площадок.

За 200+ проектов я вывел правило: 10 качественных ссылок с релевантных ресурсов бьют 1000 из каталогов. В прошлом году клиент из финтеха опубликовал собственное исследование рынка - и получил ссылку из РБК. Одна эта ссылка дала больше эффекта, чем 500 каталожных, которые он закупал два года до этого.

Что работает: Digital PR и экспертные публикации, гостевые материалы на профильных площадках, контент, на который ссылаются сами - исследования, калькуляторы, уникальная статистика.

С чего начать - и какая ошибка стоит дороже всего

Главная ошибка, которую я вижу снова и снова, - попытка оптимизировать весь сайт одновременно. Ресурсы размазываются, результат не виден, мотивация падает.

Рабочий подход другой. Берете 10-15 приоритетных страниц. Доводите до идеала: E-E-A-T сигналы, структура для GEO-цитирования, техническая часть в порядке. Фиксируете рост. И масштабируете на следующую порцию.

Порядок действий:

1. Технический аудит - ошибки индексации, скорость, битые ссылки

2. E-E-A-T сигналы - author box, кейсы с цифрами, ссылки на первоисточники

3. Анализ конкурентов из топа - не копировать, а понять логику

4. Семантика и кластеризация - какие запросы куда распределить

5. Контент под два фронта - экспертные материалы, структурированные для AI-цитирования

6. Техника до ума - CWV в зеленой зоне, мобильная версия, перелинковка

Подробный разбор каждого шага с цифрами и кейсами - в полном руководстве на seotop.biz.

SEO в 2026-м - это не про «ключи в title». Это про человека за текстом, про реальную экспертизу и про умение быть полезным даже тем, кто никогда не кликнет по вашей ссылке. Звучит непривычно, но именно так работает поиск сейчас.

Оперативные разборы обновлений алгоритмов и короткие SEO-советы - в моем Telegram-канале.

Если хотите, чтобы я посмотрел на ваш проект и подсказал, где точки роста - напишите в Telegram @fedotovbiz
Первичный анализ делаю бесплатно.