Каждый день через ChatGPT проходит 2,5 миллиарда запросов. Из них около 50 миллионов — это люди, которые ищут, что купить. Они не переходят в Google, не открывают Яндекс. Они просто спрашивают AI: «Какой сервис лучше для моей задачи?» — и получают готовый ответ с двумя-тремя рекомендациями. Если твоего бизнеса среди них нет, ты буквально не существуешь для этой аудитории.
Ещё год назад доля информационных запросов в ChatGPT составляла 14%. Сейчас — уже 24%. Это не просто рост, это фундаментальный сдвиг в том, как люди ищут информацию и принимают решения о покупке. Google AI Mode охватывает более 2 миллиардов человек ежемесячно. А по данным исследований, ChatGPT генерирует 87% всего AI-трафика и 82% продаж, которые приходят через AI-платформы.
Старые правила SEO никуда не делись — они по-прежнему работают. Но теперь появился дополнительный слой оптимизации, который определяет, попадёт ли твой сайт в ответы AI или останется невидимым для растущей аудитории, которая вообще не открывает поисковую выдачу.
Эта статья — не набор абстрактных советов. Здесь собраны конкретные методы, которые основаны на анализе того, как именно ChatGPT, Google AI Mode и Perplexity формируют свои ответы, какие источники цитируют и по каким критериям выбирают, кого рекомендовать.
Почему традиционное SEO больше не достаточно
Раньше всё было понятно: оптимизируешь страницу под ключевые слова, получаешь позиции в выдаче, собираешь трафик. Пользователь видит 10 синих ссылок, кликает на одну из них, переходит на сайт. Воронка простая и линейная.
AI-поиск работает иначе. Когда человек спрашивает ChatGPT «какой хостинг лучше для интернет-магазина», он не получает список ссылок. Он получает готовый ответ: «Для интернет-магазина на WooCommerce рекомендую X, потому что... Альтернатива — Y, если важна...». Пользователь читает, соглашается, идёт регистрироваться. Никаких кликов по выдаче, никакого сравнения десяти вариантов.
Это принципиально меняет конкуренцию. Вместо борьбы за топ-10 — борьба за попадание в топ-3 рекомендации AI.
И вот что важно понять: AI не просто берёт первые результаты из Google и пересказывает их. У ChatGPT, Perplexity и Google AI Mode свои алгоритмы определения релевантности и авторитетности. Они учитывают другие сигналы, работают с контентом по-другому и формируют ответы на основе собственной логики.
Как AI выбирает, кого цитировать
Исследования показывают чёткий паттерн в том, какие источники попадают в ответы ChatGPT:
Первый тип — отраслевые издания и авторитетные сайты. Когда ChatGPT отвечает на вопрос об email-маркетинге, он цитирует статьи с TechRadar, Forbes, Zapier. Это не просто статьи — это развёрнутые сравнения с чёткими критериями оценки.
Второй тип — агрегаторы отзывов. G2, Capterra, Trustpilot. AI любит эти источники, потому что они дают структурированные данные: рейтинги, количество отзывов, конкретные оценки по параметрам. Информацию легко извлечь и использовать.
Третий тип — живые обсуждения из Reddit, Stack Overflow, профильных форумов. Но не любые обсуждения, а те, где есть конкретный вопрос и развёрнутые, аргументированные ответы.
Чего ChatGPT избегает — так это откровенно рекламного контента. Алгоритм научился отличать полезную информацию от маркетинговых материалов. Страница, которая просто расхваливает продукт без объективного сравнения, имеет минимальные шансы попасть в цитаты.
Query Fan-Out: как AI на самом деле ищет ответы
Один из ключевых механизмов, который нужно понимать для оптимизации под AI — это query fan-out, или «веер запросов». Когда ты задаёшь ChatGPT или Google AI Mode один вопрос, система не делает один поиск. Она разбивает твой запрос на множество подзапросов и ищет информацию по каждому из них параллельно.
Допустим, ты спрашиваешь: «Какой лучший WordPress SEO плагин?»
AI в фоновом режиме ищет:
- best SEO plugins for WordPress
- Rank Math vs Yoast
- WordPress SEO plugin comparison
- how to optimize WordPress title tags
- SEO press vs Rank Math
И это только видимая часть. Через функцию Deep Research в Google Gemini можно увидеть ещё более глубокий анализ. Система определяет, что для такого запроса нужен сравнительный подход. Она ищет ключевые отличия: schema markup capabilities, влияние на скорость сайта, ценовые модели, удобство миграции с других плагинов.
Понимание query fan-out критически важно: чтобы попасть в ответ AI, недостаточно оптимизировать страницу под один главный ключ. Нужно покрывать весь спектр связанных запросов, которые AI использует для формирования ответа.
Практический метод исследования AI-запросов
Вот конкретный способ узнать, какие запросы AI использует для твоей темы:
Шаг 1. Открой Google AI Mode или ChatGPT и задай вопрос, релевантный твоему бизнесу.
Шаг 2. В Google AI Mode ты увидишь, какие страницы система посещает для формирования ответа. Записывай не только URL, но и темы этих страниц — это и есть query fan-out.
Шаг 3. Используй Gemini Deep Research для более глубокого анализа. В разделе «thoughts» система показывает свою логику: какие факторы она считает важными, какие сравнения делает, какие дополнительные вопросы исследует.
Шаг 4. На основе этого анализа составь список тем, которые нужно покрыть в твоём контенте. Не отдельными статьями на каждый микро-запрос, а комплексными материалами, которые отвечают на весь веер связанных вопросов.
Keyword Research для AI-эпохи: от ключевых слов к разговорным запросам
Традиционный keyword research строился вокруг коротких, чётких запросов: «купить ноутбук», «доставка пиццы», «SEO продвижение». AI-поиск меняет эту парадигму. Люди общаются с ChatGPT как с консультантом, а не как с поисковой строкой.
Вместо «корм для собак» человек спрашивает: «У моей собаки артрит, она пожилая и плохо встаёт по утрам. Какой корм поможет с суставами и не будет слишком дорогим?»
Это conversational query — разговорный запрос. Он содержит контекст, ограничения, конкретную проблему. И AI отвечает на него совершенно иначе, чем поисковая система отвечает на короткий ключ.
Метод общего знаменателя
Есть эффективный способ находить такие разговорные запросы для любого бизнеса. Называется «метод общего знаменателя» (common denominator method).
Логика простая: у твоих потенциальных клиентов есть типичные проблемы, ситуации, потребности. Эти проблемы — общий знаменатель, который связывает их с твоим продуктом.
Пример для корма для собак:
Общий знаменатель — симптомы и проблемы со здоровьем собак. Артрит, аллергия, лишний вес, проблемы с пищеварением. Каждый симптом порождает десятки разговорных запросов:
- «Моя собака постоянно чешется, какой корм гипоаллергенный и не слишком дорогой?»
- «Щенок лабрадора быстро набирает вес, чем кормить чтобы не растолстел?»
- «Старый пёс отказывается от сухого корма, что делать?»
Пример для SaaS-продукта:
Если ты продаёшь сервис для email-рассылок, общий знаменатель — задачи и боли маркетологов. Низкая открываемость писем, попадание в спам, сложность сегментации, автоматизация цепочек.
Для поиска таких запросов можно использовать ChatGPT с промптом:
«Я продвигаю [продукт/услуга]. Определи общий знаменатель, который связывает проблемы и ситуации клиентов с этим продуктом. Разбей на подкатегории. Для каждой подкатегории дай примеры разговорных запросов, которые реальные люди задают AI-помощникам.»
От разговорных запросов к традиционным ключевым словам
Вот важный момент: AI-платформы не существуют в вакууме. Когда ChatGPT или Perplexity формирует ответ, он ищет информацию на веб-страницах. А веб-страницы по-прежнему оптимизированы под традиционные ключевые слова.
Поэтому рабочая стратегия такая:
- Находишь разговорные запросы для своей ниши
- Определяешь, какие традиционные ключевые слова AI использует для поиска ответов на эти запросы
- Создаёшь контент, оптимизированный под традиционные ключи, но отвечающий на разговорные запросы
Для второго шага лучше всего подходит Perplexity. Вводишь разговорный запрос, смотришь источники в ответе, анализируешь SEO-заголовки процитированных страниц. Это и есть традиционные ключевые слова, под которые нужно оптимизировать контент.
Для глубокого анализа ключевых слов и их кластеризации пригодятся специализированные инструменты. Keys.so показывает семантическое окружение запросов, Букварикс помогает с расширением семантики, а Мутаген оценивает конкурентность — особенно полезно, когда нужно понять, за какие ключи реально бороться.
Оценка потенциала разговорных запросов
Проблема с conversational queries в том, что для них нет данных по search volume в привычном понимании. Но можно сделать обоснованную оценку через анализ традиционных ключевых слов.
Берёшь разговорный запрос, находишь связанные традиционные ключи через Perplexity, загружаешь их в Google Keyword Planner или Rush Analytics. Группируешь по интентам и суммируешь объёмы.
Например, для запроса «какой корм для пожилых собак с проблемами суставов» связанные традиционные ключи:
- «корм для пожилых собак» — 10K-100K
- «корм для собак при артрите» — 1K-10K
- «добавки для суставов собак» — 10K-100K
Суммарный потенциал разговорного запроса — примерно 21K-210K в месяц. Это не точная цифра, но достаточная для приоритизации тем.
On-Page оптимизация для LLM: структура контента, которую понимает AI
Традиционные поисковые роботы читают страницу целиком. У LLM есть ограничение по токенам — они обрабатывают контент частями и не видят страницу полностью. Это фундаментально меняет подход к структурированию информации.
Ключевые выводы в начале страницы
Если раньше FAQ-секцию размещали внизу статьи, теперь её место — в самом начале. Но не просто списком тезисов, а в формате «вопрос-ответ».
Почему именно Q&A формат? LLM обучены на диалогах и Q&A данных. Они отлично распознают структуру «вопрос — ответ» и легко извлекают из неё информацию.
Вот как это выглядит практически:
Было (традиционный подход):
Ключевые выводы:
- Schema markup важна для SEO
- Скорость сайта влияет на ранжирование
- Мобильная версия должна быть оптимизирована
Стало (оптимизация под LLM):
Почему schema markup критически важна для AI-поиска?
Schema markup помогает AI-системам точно понимать контекст страницы.
Без разметки AI может неправильно интерпретировать содержимое.
Как скорость сайта влияет на видимость в ChatGPT?
LLM имеют таймауты при обращении к страницам. Медленный сайт
может не успеть загрузиться, и информация с него не попадёт в ответ.
К этому блоку добавляешь FAQ schema markup. Это работает и для традиционных поисковых систем (помогает получить расширенные сниппеты), и для LLM (облегчает извлечение структурированной информации).
Entity-rich контент: как писать для AI
LLM не читают страницу последовательно, как человек. Они обрабатывают текст чанками — фрагментами. Каждый фрагмент должен быть самодостаточным и содержать все нужные сущности (entities) с их связями.
Сущность — это конкретный объект: продукт, бренд, концепция, технология. AI понимает мир через сущности и их взаимосвязи.
Сравни два варианта одного абзаца:
Традиционный SEO-текст:
«Оптимизация для голосового поиска помогает пользователям находить контент через голосовые запросы.»
Entity-rich версия для LLM:
«Оптимизация для голосового поиска позволяет AI-ассистентам — Алиса, Siri, Google Assistant — связывать голосовые вопросы с релевантными ответами, помогая пользователям находить контент через разговорные запросы.»
Во втором варианте:
- Названы конкретные сущности (Алиса, Siri, Google Assistant)
- Они сгруппированы в категорию (AI-ассистенты)
- Показана связь с ключевым понятием (голосовой поиск)
- Объяснена механика (связывание вопросов с ответами)
Entity-rich контент особенно важен для первого абзаца после каждого заголовка. Именно этот фрагмент LLM с высокой вероятностью извлечёт и процитирует.
Заголовки в форме вопросов
Традиционный SEO учил использовать утвердительные заголовки с ключевыми словами: «Оптимизация скорости загрузки сайта», «Настройка schema markup для интернет-магазина».
Для LLM-оптимизации эффективнее вопросительные заголовки:
- «Как оптимизировать скорость загрузки для AI-краулеров?»
- «Какую schema markup добавить интернет-магазину?»
Причина та же — LLM обучены на Q&A данных. Вопрос в заголовке + прямой ответ в первом предложении = идеальная структура для извлечения AI.
Первое предложение после вопросительного заголовка должно быть:
- Прямым ответом на вопрос (не подводкой, не контекстом)
- Длиной 20-40 слов
- С включением ключевых сущностей
Пример:
### Как скорость сайта влияет на видимость в AI-поиске?
Медленные сайты часто не успевают загрузиться до таймаута LLM-краулеров —
ChatGPT, Perplexity, Google AI Mode пропускают их при формировании ответов,
отдавая предпочтение быстрым ресурсам с временем загрузки до 2 секунд.
Speakable Schema для голосового поиска
Speakable schema — это разметка, которая указывает, какие части контента подходят для озвучивания голосовыми ассистентами. Технически LLM не обрабатывают схемы напрямую как Google, но добавление speakable schema приносит косвенную пользу.
Когда размечаешь контент для speakable, ты вынужден создавать короткие, естественно звучащие пассажи. Именно такой контент LLM легче всего извлекают и цитируют. Это дисциплинирует писать понятнее.
Множественные FAQ-блоки на странице
Раньше считалось, что на странице должен быть один FAQ-блок, обычно внизу. Для LLM-оптимизации работает другой подход: FAQ-блоки распределяются по всему контенту там, где они контекстуально уместны.
Пишешь раздел про llms.txt? Добавь мини-FAQ именно там:
- «Обязательно ли добавлять llms.txt?»
- «Какие AI читают этот файл?»
Пишешь про schema markup? FAQ-блок про схемы должен быть в этом же разделе, а не внизу страницы вместе со всеми остальными вопросами.
Google поддерживает несколько FAQ-блоков на одной странице. При правильной разметке все вопросы попадут в структурированные данные.
Технические требования для AI-краулеров
У AI-ботов есть специфические технические ограничения, которые отличают их от традиционных поисковых роботов. Если сайт не адаптирован под эти ограничения, контент может быть недоступен для ChatGPT и других платформ.
Проблема JavaScript-сайтов
AI-краулеры плохо справляются с JavaScript-heavy сайтами. Они не рендерят JS так, как это делают браузеры, и полагаются на HTML, доступный в исходном коде страницы.
Как проверить, видит ли AI твой контент:
- Открой страницу сайта
- Правый клик → «Просмотр кода страницы» (не «Инспектировать», а именно исходный код)
- Найди текст, который должен быть на странице
- Если текст есть в исходнике — AI его видит. Если текста нет (он подгружается через JS) — AI его не видит.
Можно проверить напрямую через ChatGPT. Попроси его проанализировать конкретный URL с твоего сайта. Если в ответ получишь «ошибка 500» или «не могу получить доступ» — сайт недоступен для AI-краулеров.
Это не значит, что нельзя использовать современные JS-фреймворки. Нужно убедиться, что критический контент рендерится на сервере (SSR) или доступен в статическом HTML.
Файл llms.txt
Аналогично robots.txt для поисковых роботов, появился стандарт llms.txt для AI-краулеров. Этот файл указывает LLM на самые важные страницы сайта и даёт их краткое описание.
Формат простой:
# Название сайта
> Краткое описание сайта
## Основные разделы
- [Название страницы](URL): Описание содержимого
- [Другая страница](URL): Описание содержимого
Llms.txt — пока предложенный стандарт, не все AI-платформы его используют. Но крупные компании (Stripe, Cloudflare, Zapier, Coinbase) уже внедрили его. Добавление файла не несёт рисков и занимает минуты, при этом даёт преимущество по мере распространения стандарта.
Для WordPress с плагином Rank Math добавление llms.txt — это переключение одной настройки в панели управления.
Schema markup для AI
Существует мнение, что LLM не используют schema markup напрямую. Технически это верно — они не парсят структурированные данные как Google. Но косвенное влияние schema на AI-видимость подтверждено.
Microsoft официально заявил, что schema markup помогает их LLM понимать контент. BrightEdge в исследовании показал, что структурированные данные увеличивают шансы на цитирование AI-платформами.
Логика простая: schema делает контент более понятным для любых машинных систем. FAQ schema показывает, что блок содержит вопросы и ответы. Product schema указывает на товарную страницу с ценой и характеристиками. Recipe schema — что это рецепт с ингредиентами и шагами.
Минимальный набор schema для AI-оптимизации:
- Organization (информация о компании)
- FAQ (вопросы-ответы)
- Article/BlogPosting (для статей)
- Product (для товаров)
- HowTo (для инструкций)
Скорость загрузки критичнее, чем когда-либо
При традиционном SEO скорость влияла на ранжирование и поведенческие факторы. При AI-оптимизации скорость определяет, получит ли AI вообще доступ к контенту.
LLM-краулеры работают с таймаутами. Если страница не загрузилась достаточно быстро, AI просто пропустит её и возьмёт информацию с более быстрого конкурента.
Рекомендации по скорости:
- Время загрузки основного контента — до 2 секунд
- LCP (Largest Contentful Paint) — до 2.5 секунд
- Минимизация JS, который блокирует рендеринг
- Lazy loading для изображений ниже первого экрана
Для WordPress эффективно работает связка: быстрый хостинг (Timeweb или Beget дают хорошие показатели для российских проектов) + плагин кэширования WP Rocket + оптимизация изображений через Imagify.
WP Rocket берёт на себя минификацию CSS и JS, отложенную загрузку скриптов, кэширование страниц. Настройка занимает 10 минут, а прирост скорости ощутим сразу.
Robots.txt и AI-боты
По умолчанию, если robots.txt не содержит специальных правил для AI-ботов, они имеют доступ к сайту. Но есть нюансы.
Cloudflare с недавнего времени может автоматически блокировать AI-краулеров. Если используешь Cloudflare, проверь настройки в разделе AI Crawl Control. Там можно управлять доступом для каждого AI-бота отдельно.
OpenAI использует несколько ботов:
- OAI-SearchBot — для поиска информации при ответах
- ChatGPT-User — когда пользователь просит ChatGPT проанализировать URL
- GPTBot — для обучения моделей
Первые два нужны, чтобы попадать в ответы ChatGPT. Третий — чтобы информация о твоём бизнесе была в базовых знаниях модели.
Исследования показывают, что ChatGPT активно использует свои обученные данные наряду с веб-поиском. Сайты, заблокировавшие GPTBot, теряют часть потенциальной видимости — AI не может подтвердить информацию о них из своей базы знаний.
Если нужно заблокировать только ботов для обучения (не хочешь, чтобы контент использовался для тренировки моделей), блокируй GPTBot, но оставь доступ для OAI-SearchBot и ChatGPT-User.
IndexNow для мгновенной индексации
IndexNow — протокол, который позволяет моментально уведомлять поисковые системы об изменениях на сайте. Поддерживается Bing, Yandex, Seznam и рядом других систем.
Почему это важно для AI-оптимизации: ChatGPT получает значительную часть данных через Bing. Чем быстрее страница проиндексирована в Bing, тем быстрее она может появиться в ответах ChatGPT.
Для WordPress настройка IndexNow через Rank Math — одно переключение в панели управления. После этого каждая публикация или обновление страницы автоматически отправляет уведомление.
Bing Webmaster Tools: недооценённый инструмент для AI-видимости
Долгое время Bing воспринимался как второстепенная поисковая система. В эпоху AI всё изменилось. ChatGPT, Copilot, часть функций Perplexity — все они используют данные Bing. Если сайт не проиндексирован или плохо представлен в Bing, шансы на попадание в ответы ChatGPT минимальны.
Первый шаг — проверить, проиндексирован ли сайт в Bing вообще. Зайди в Bing Webmaster Tools, добавь сайт (можно импортировать данные из Google Search Console), и посмотри статус индексации.
Основные возможности, которые стоит использовать:
Search Performance — аналог отчёта по эффективности в GSC, но с данными Bing. Здесь можно найти conversational queries — длинные разговорные запросы, по которым появляется твой сайт. Это прямой индикатор того, как AI-пользователи находят твой контент.
URL Inspection — проверка конкретных страниц. Показывает, как Bing видит страницу и какие SEO-проблемы обнаружены. Bing также даёт рекомендации по оптимизации — полезно, учитывая связь с ChatGPT.
Sitemaps — убедись, что XML-карта сайта загружена и обрабатывается без ошибок. Для AI это важнее, чем для Google, потому что AI-краулеры чаще полагаются на sitemap для навигации по сайту.
IndexNow интеграция — Bing полностью поддерживает IndexNow. Если включил протокол на сайте, в Bing Webmaster Tools видно статистику отправленных уведомлений.
Как попасть в цитаты ChatGPT: механика и стратегия
Теперь переходим к самому важному — как конкретно сделать так, чтобы ChatGPT рекомендовал твой продукт или цитировал твой контент.
Два набора источников в ответах ChatGPT
Если внимательно изучить ответы ChatGPT с цитированием, можно заметить два типа источников:
- Основной набор (main citations) — источники, которые показываются сразу под ответом
- Дополнительный набор (more section) — источники, которые видны после клика на «Показать ещё»
Исследования показывают: продукты и бренды из основного набора цитат попадают в текст ответа практически всегда. Источники из дополнительного набора используются для верификации, но редко напрямую цитируются в ответе.
Цель — попасть в основной набор цитирования. Это определяет, будет ли твой бренд упомянут в ответе.
Характеристики источников из основного набора
Анализ показывает несколько паттернов:
Высокий Domain Authority. Страницы в основном наборе почти всегда имеют высокую авторитетность домена. Это не обязательно означает DR 90+, но точно не нулевые или низкоавторитетные сайты.
Свежесть контента. 86% источников в основном наборе — контент, опубликованный или обновлённый в текущем году. ChatGPT явно отдаёт предпочтение актуальной информации.
Позиция в выдаче — не главный фактор. Интересный факт: страницы из основного набора цитат ChatGPT могут находиться на 3-й, 5-й, даже 10-й странице Google или Bing. Высокие позиции в традиционной выдаче помогают, но не являются определяющим фактором.
Контент может ранжироваться в Google посредственно, но активно цитироваться ChatGPT, если он авторитетен, свеж и точно релевантен запросу.
Интент и персонализация ответов
ChatGPT не просто считает упоминания бренда и выбирает самый популярный. Система анализирует интент запроса и подбирает рекомендации под конкретную ситуацию пользователя.
Показательный пример из исследований: на запрос «лучшие приложения для учёта расходов» ChatGPT исключил несколько популярных решений (SAP Concur, Zoho Expense, QuickBooks) несмотря на их частое упоминание в источниках. Причина — эти продукты ориентированы на корпоративных клиентов, а интент запроса указывал на персональное использование или малый бизнес.
ChatGPT объяснил логику: «Люди, которые ищут 'лучшие приложения', обычно подразумевают персональное использование или малый бизнес. Корпоративные решения не соответствуют этому интенту.»
Что это значит для бизнеса: чётко указывай на страницах продукта, для кого он предназначен. Если твой сервис подходит и для стартапов, и для корпораций — создай отдельные страницы для каждого сегмента. ChatGPT учитывает эту информацию при формировании рекомендаций.
Canonical-теги для множественных intent-страниц
Возникает вопрос: если создавать отдельные страницы под разные сегменты, не будет ли это дублированием контента?
Решение — canonical tags. Создаёшь основную страницу «Лучший инструмент для X», оптимизированную под общий запрос. Затем создаёшь вариации: «Лучший инструмент для X для малого бизнеса», «...для стартапов», «...для enterprise». Контент схож, но адаптирован под конкретный сегмент.
На вариациях ставишь canonical на основную страницу. Google индексирует только основную, не считая вариации дублями. Но ChatGPT и другие LLM всё равно видят и используют контент с вариаций, потому что они не следуют canonical так строго, как поисковые системы.
Не блокируй GPTBot
Некоторые сайты блокируют GPTBot (бот для обучения моделей OpenAI), считая, что это защитит контент от использования в тренировке AI.
Проблема в том, что ChatGPT активно использует свои обученные данные вместе с live search. Когда модель знает информацию и о твоём бренде из обучения, и находит её при поиске — уверенность в рекомендации выше.
Исследование показало: ChatGPT цитировал страницы, которых не было в текущей выдаче Google и Bing. На вопрос «откуда эта информация?» модель ответила: «Из моих обученных данных до 2024 года. Для быстроменяющихся тем я дополняю обученные знания live search.»
Если бизнес хочет максимальной видимости в AI — не блокируй GPTBot. Если принципиально не хочешь, чтобы контент использовался для обучения — блокируй GPTBot, но оставь доступ для OAI-SearchBot и ChatGPT-User.
Поведенческие факторы и AI-видимость
Связь между пользовательским поведением на сайте и AI-ранжированием — тема, которую многие упускают. Но она критически важна.
AI-платформы не существуют изолированно. Они берут данные из поисковых систем, а поисковые системы учитывают поведенческие факторы. Сайт с хорошими поведенческими сигналами ранжируется выше → AI чаще его видит и цитирует.
Более того, Google AI Mode и Perplexity явно отдают предпочтение страницам, на которых пользователи проводят больше времени и совершают целевые действия. Это не официально подтверждённый фактор, но корреляция прослеживается в исследованиях.
Работа над поведенческими факторами — это инвестиция одновременно в традиционное SEO и в AI-видимость.
Для российского рынка и Яндекса поведенческие факторы играют ещё большую роль. SeoPapa — один из инструментов, который помогает улучшить поведенческие метрики: глубину просмотра, время на сайте, показатель отказов. Это влияет на позиции в Яндексе напрямую и косвенно улучшает шансы на попадание в AI-ответы через улучшение общей видимости сайта.
Google AI Mode: специфика оптимизации
Google AI Mode работает немного иначе, чем ChatGPT. Он теснее интегрирован с традиционным поиском Google и использует данные из Knowledge Graph.
Что ищет Google AI Mode
При анализе через Gemini Deep Research можно увидеть, какие факторы система считает важными для разных типов запросов.
Для сравнительных запросов (какой продукт лучше):
- Конкретные differentiating factors
- Ценовые сравнения
- Технические характеристики в сравнении
- Отзывы пользователей с конкретикой
Для how-to запросов:
- Пошаговые инструкции
- Скриншоты или визуальные материалы
- Предупреждения о типичных ошибках
- Альтернативные методы
Для информационных запросов:
- Экспертные источники
- Статистика и данные
- Ссылки на первоисточники
Entity-packed параграфы
Google AI Mode особенно активно цитирует абзацы, насыщенные сущностями и связями между ними.
Пример структуры, которую AI Mode часто цитирует:
«[Название сервиса] — это [категория], который использует [технологии] для [назначение]. Основные возможности включают [функция 1], [функция 2], [функция 3]. В сравнении с [конкурент 1] и [конкурент 2], [название] выделяется [преимущество]. По данным [источник], пользователи отмечают [конкретная метрика].»
В этом абзаце:
- Названы конкретные сущности
- Показаны связи между ними
- Есть сравнение с альтернативами
- Приведена верифицируемая информация
Такие параграфы AI Mode извлекает целиком и использует для формирования ответов.
Исследование цитируемых источников
Практический способ улучшить шансы на цитирование в Google AI Mode:
- Ищи в AI Mode запросы, релевантные твоему бизнесу
- Смотри, какие источники цитируются (особенно в блоках, где упоминаются конкретные продукты)
- Посещай эти страницы и анализируй: упомянут ли твой бренд? Если нет — это кандидат на outreach
- Повторяй поиск несколько раз — источники могут меняться
Цель — обеспечить присутствие бренда на страницах, которые AI Mode активно цитирует. Это работает эффективнее, чем просто наращивание ссылочной массы, потому что направлено на конкретные источники, влияющие на AI-рекомендации.
Reddit: неожиданный фактор AI-видимости
По данным исследований, 82% поисковых запросов Google содержат Reddit-треды на первой странице выдачи. В AI Overview Reddit цитируется в 15% случаев. Это делает платформу значимым фактором для AI-видимости.
Почему AI любит Reddit:
- Огромный массив разговорных данных
- Покрытие длинных запросов (longtail topics)
- Сигналы аутентичности через upvotes
- Высокое доверие к community-driven контенту
Как использовать Reddit для AI SEO
Важно: Reddit-аудитория крайне негативно реагирует на любую рекламу. Попытка прямого продвижения бренда приведёт к минусам, бану и репутационному ущербу.
Работающая стратегия:
- Найди релевантные сабреддиты через AI-поиск. Ищи запросы про свой продукт в ChatGPT и Perplexity, смотри, какие Reddit-треды цитируются.
- Стань активным участником. Не начинай с продвижения. Отвечай на вопросы, помогай сообществу, зарабатывай karma и доверие.
- Участвуй в релевантных дискуссиях. Когда аккаунт созрел (месяцы активности, положительная karma), можно упоминать свой продукт в контексте, если это действительно помогает автору вопроса.
- Используй Reddit для исследований. Даже без активного продвижения, Reddit — кладезь инсайтов. Какие вопросы задают люди? Какие проблемы обсуждают? Какую терминологию используют? Это всё — материал для контента на твоём сайте.
Для поиска контент-идей работает оператор site:reddit.com "ключевое слово" в Google. Показывает все треды, где обсуждается тема.
Важный тренд: к 2026 году влияние Reddit на AI-ответы может снизиться. ChatGPT начинает отдавать предпочтение верифицированным отраслевым источникам перед открытыми форумами. Но пока Reddit остаётся значимым фактором.
Локальное SEO в эпоху AI-поиска
Для локального бизнеса AI-поиск создаёт дополнительные возможности и вызовы. Когда человек спрашивает ChatGPT «лучший стоматолог в [городе]», система должна откуда-то взять эту информацию.
Bing Places — критически важно
Для локального AI SEO оптимизация Bing Places так же важна, как Google Business Profile. ChatGPT и Copilot активно используют данные Bing для локальных запросов.
Если профиль в Bing Places не заполнен или содержит устаревшую информацию, шансы на рекомендацию минимальны.
Что оптимизировать:
- Полное заполнение всех полей профиля
- Актуальные часы работы и контакты
- Категории услуг
- Фото (желательно с геотегами)
- Ответы на отзывы
Отзывы с location keywords
Google Business Profile и Bing Places учитывают содержание отзывов. Для AI-видимости особенно полезны отзывы, которые содержат географические маркеры.
«Отличный сервис в [районе/городе]» — такой отзыв усиливает ассоциацию бизнеса с конкретной локацией.
Как получить такие отзывы:
- Просто попроси клиентов упомянуть район/город
- Для сервисного бизнеса — мотивируй сотрудников получать отзывы с геопривязкой
Геотегированные фото
Для сервисного бизнеса (ремонт, строительство, клининг и т.д.) — загружай фото выполненных работ с включёнными метаданными о локации.
В настройках камеры смартфона должна быть включена функция сохранения геоданных. Фото «до и после» с геотегами из разных районов города показывают AI, что бизнес реально работает в этих локациях.
Директории, которые цитирует AI
Помимо Google и Bing, AI-платформы цитируют нишевые директории. Для разных сфер это разные площадки:
- Для рестранов: TripAdvisor, местные foodtech-платформы
- Для медицины: профильные агрегаторы клиник
- Для услуг: Яндекс.Услуги, профильные каталоги
Найди, какие директории цитируются для запросов в твоей нише (через анализ источников в ChatGPT и Google AI Mode), и убедись, что твой бизнес там представлен с полной актуальной информацией.
Стратегия брендового позиционирования для AI
AI не рекомендует случайные бренды. Система строит ассоциации: «этот бренд связан с этой темой/проблемой/решением». Чем сильнее ассоциация, тем выше шансы на рекомендацию.
Принцип branded web mentions
Исследования показывают: частота упоминания бренда вместе с ключевыми темами — один из сильнейших факторов AI-видимости. Не просто упоминание бренда, а упоминание в контексте конкретной темы.
«[Бренд] — отличное решение для [проблема]» — такое упоминание на авторитетных площадках усиливает связь между брендом и темой в восприятии AI.
Где строить присутствие
- Отраслевые издания. Публикации, гостевые статьи, экспертные комментарии на профильных площадках.
- Агрегаторы отзывов. G2, Capterra, Trustpilot — в зависимости от ниши. Полные профили с актуальными данными и отзывами.
- YouTube. AI всё активнее интегрирует видео-контент. Канал с экспертными видео по теме усиливает авторитетность.
- Подкасты. Участие в профильных подкастах даёт упоминания бренда в расшифровках, которые AI может использовать.
- Вики и энциклопедии. Если бренд достаточно значим — присутствие в Википедии значительно усиливает AI-доверие.
E-E-A-T для AI
Google давно использует принцип E-E-A-T (Experience, Expertise, Authority, Trust) для оценки контента. AI-системы движутся в том же направлении.
ChatGPT начинает строить собственную систему оценки авторитетности, аналогичную Domain Authority. Самоцитирование и искусственное наращивание упоминаний будут терять эффективность. Реальная экспертиза, подтверждённая независимыми источниками — вот что будет работать.
Что это значит практически:
- Контент должен быть подписан реальными экспертами с верифицируемым опытом
- Утверждения должны подкрепляться данными и ссылками на источники
- Биографии авторов должны показывать их квалификацию
- Сторонние упоминания должны подтверждать экспертизу
Тренды AI-поиска на 2026 год
Снижение влияния открытых форумов
ChatGPT движется к уменьшению веса Reddit, Quora и подобных платформ в ответах. Причина — низкий контроль качества. Любой может написать что угодно, и спам на форумах растёт.
К 2026 году ожидается сдвиг в сторону верифицированных отраслевых источников. Это хорошая новость для брендов, которые строят присутствие на авторитетных площадках.
Интеграция видео в ответы
AI перестаёт ограничиваться текстовыми ответами. В 2026 году ответы будут включать:
- Релевантные YouTube-видео
- Клипы из TikTok
- Фрагменты из подкастов
Это значит, что видео-контент становится полноценной частью AI-SEO стратегии. Не просто «хорошо бы иметь», а необходимость для полного покрытия.
Predictive discovery
Текущие AI — реактивные. Спросил — ответили. К 2026 году ожидается сдвиг к проактивным рекомендациям. AI будет предлагать контент и продукты до того, как пользователь спросит, на основе паттернов поведения.
Для бизнеса это означает: нужно строить присутствие по всем этапам customer journey, не только по запросам с явным покупательским интентом.
Freshness и citation velocity
Объём накопленных цитирований будет терять значение. Важнее станет динамика: как часто бренд упоминается сейчас, в последние 30 дней.
Новый бренд с активным buzz может обойти legacy-бренд с историческим объёмом упоминаний, если тот перестал генерировать новые.
Это меняет стратегию: вместо разового большого push нужен постоянный поток упоминаний, пусть и меньшего объёма.
Инструменты для мониторинга AI-видимости
Традиционные SEO-инструменты не показывают, попадает ли сайт в ответы AI-платформ. Нужны дополнительные методы мониторинга.
Ручной мониторинг
Регулярно (раз в неделю) проверяй ключевые запросы в ChatGPT, Google AI Mode, Perplexity:
- Упоминается ли твой бренд?
- Какие конкуренты упоминаются?
- Какие источники цитируются?
Записывай результаты — это позволит отслеживать динамику.
Мониторинг позиций
Топвизор позволяет отслеживать позиции в традиционных поисковых системах. Хотя прямой корреляции между позициями в Google и цитированием в AI нет, это базовый индикатор видимости контента.
PR-CY даёт комплексный анализ сайта: технические параметры, ссылочный профиль, видимость в поисковых системах. Полезно для понимания общего состояния сайта.
Мониторинг упоминаний
Google Alerts — бесплатный способ отслеживать упоминания бренда. Настрой алерты на:
- Название бренда
- Бренд + ключевые запросы
- Названия конкурентов
Это покажет, где происходят дискуссии о твоей нише и где стоит наращивать присутствие.
Проверка авторитетности источников
Checktrust показывает качество сайтов-доноров ссылок. Для AI-SEO это важно: ссылки с авторитетных источников усиливают сигналы, которые AI использует для оценки надёжности.
Ссылочное продвижение в контексте AI-SEO
Ссылки не потеряли значения. Они по-прежнему влияют на позиции в традиционном поиске, а через это — на видимость для AI-краулеров. Но подход к линкбилдингу меняется.
Качество важнее количества
AI-системы оценивают не просто количество ссылок, а их источники и контекст. Ссылка из обзорной статьи на отраслевом издании значит больше, чем сотня ссылок с каталогов.
Биржи вечных ссылок — Gogetlinks, Miralinks — дают доступ к площадкам разного качества. Фокус должен быть на тематических сайтах с реальной аудиторией, а не на любых доступных площадках.
Контекстные ссылки
Ссылка в теле статьи, в релевантном контексте, работает лучше, чем ссылка в футере или сайдбаре. Для AI-систем контекст особенно важен — он показывает, с какой темой связан бренд.
При размещении статей через биржи проси размещение ссылки в основном тексте, в параграфе, релевантном твоему продукту.
Проверка качества площадок
Перед размещением ссылки проверяй площадку через Checktrust — это покажет траст домена, спамность, историю санкций. Ссылка с заспамленной площадки может навредить больше, чем помочь.
Контент-стратегия для AI-эры
Комплексные материалы vs множество коротких статей
AI отдаёт предпочтение глубоким, комплексным материалам. Статья на 3000+ слов, которая полностью раскрывает тему, имеет больше шансов на цитирование, чем пять коротких статей по 500 слов на ту же тему.
Причина: AI ищет авторитетный источник, способный ответить на весь спектр подзапросов. Комплексный материал покрывает больше query fan-out.
Регулярное обновление
86% цитируемых ChatGPT источников — контент текущего года. Это жёсткое требование: нужно обновлять важные материалы минимум раз в год.
При обновлении:
- Актуализируй данные и статистику
- Добавь новые разделы по актуальным подтемам
- Проверь и обнови ссылки на источники
- Обнови дату публикации/обновления
Контент для разных этапов воронки
AI отвечает на запросы на всех этапах покупательского пути:
- Awareness: «Что такое X?», «Зачем нужен Y?»
- Consideration: «X vs Y», «Лучший X для Z»
- Decision: «Отзывы о X», «Цена X»
Контент-стратегия должна покрывать все этапы. Пробел на каком-либо этапе = потеря потенциальных клиентов, которые спрашивают AI именно об этом.
Использование AI для создания контента
Расшифровка видео, подкастов, вебинаров — источник уникального контента. Сервисы транскрибации (speech2text) превращают аудио-визуальный контент в текст, который можно использовать для статей.
Это даёт двойное преимущество: видео-контент для YouTube + текстовый контент для сайта на основе того же материала.
Практический план внедрения
Первый месяц: аудит и базовая настройка
- Проверь техническую доступность для AI-краулеров:Тест JavaScript-рендеринга
Проверка robots.txt
Настройка Cloudflare (если используется) - Настрой Bing Webmaster Tools:Верификация сайта
Загрузка sitemap
Включение IndexNow - Добавь llms.txt на сайт
- Проведи базовое исследование:Какие источники AI цитирует по твоим ключевым запросам?
Где присутствуют конкуренты?
Упоминается ли твой бренд?
Второй-третий месяц: контентная оптимизация
- Переструктурируй ключевые страницы:Добавь Q&A секции в начало
Примени FAQ schema
Сделай заголовки вопросительными
Насыть первые параграфы сущностями - Обнови контент:Актуализируй данные
Добавь недостающие подтемы
Улучши глубину раскрытия - Создай контент под conversational queries:Исследуй разговорные запросы через метод общего знаменателя
Создай материалы, отвечающие на эти запросы
Четвёртый-шестой месяц: внешнее продвижение
- Outreach к источникам, которые цитирует AI:Контакт с авторами/редакторами
Предложение экспертного контента
Запрос на включение бренда в обзоры - Наращивание присутствия на авторитетных площадках:Публикации в отраслевых изданиях
Заполнение профилей на агрегаторах отзывов
Участие в подкастах/вебинарах - Развитие видео-направления:Создание экспертного контента для YouTube
Оптимизация заголовков и описаний под поиск
Постоянные активности
- Еженедельный мониторинг AI-ответов по ключевым запросам
- Ежемесячное обновление как минимум одного ключевого материала
- Постоянная работа над накоплением экспертных упоминаний
- Отслеживание изменений в алгоритмах AI-платформ
Частые вопросы
Нужно ли полностью переделывать существующий контент под AI?
Нет. Базовая оптимизация (Q&A секции, entity-rich первые параграфы, schema markup) применяется к существующему контенту без полной переработки. Начни с самых важных страниц, постепенно охватывай остальные.
Работает ли AI-оптимизация для локального бизнеса?
Да, особенно для сервисных бизнесов. Люди всё чаще спрашивают AI «найди мне [услугу] в [городе]». Оптимизация Bing Places, локальные отзывы с геопривязкой, присутствие в местных директориях — всё это влияет на AI-рекомендации.
Сколько времени нужно до первых результатов?
Техническая оптимизация даёт результат в течение недель — как только AI-краулеры переиндексируют сайт. Контентная оптимизация — месяцы. Брендовое позиционирование — от 6 месяцев до года. AI-SEO — это марафон, не спринт.
Влияют ли социальные сети на AI-видимость?
Косвенно — да. Активное присутствие в соцсетях генерирует упоминания бренда, которые AI может учитывать. YouTube особенно важен, так как AI начинает интегрировать видео в ответы.
Что делать, если конкурент уже доминирует в AI-ответах?
Анализируй, почему он там оказался. Какие источники его цитируют? Какой контент у него лучше? Строй стратегию на покрытии пробелов — тем, которые конкурент не покрывает, или сегментов аудитории, которые он игнорирует.
Заключение
AI-поиск — не замена традиционному SEO, а дополнительный слой. Сайты, которые хорошо оптимизированы под Google, имеют преимущество и в AI-выдаче. Но без специфической AI-оптимизации это преимущество не реализуется полностью.
Ключевые принципы, которые останутся актуальными:
- Реальная экспертиза вместо манипуляций
- Глубокий полезный контент вместо поверхностного
- Присутствие там, где AI ищет информацию
- Постоянное обновление вместо разовых кампаний
Бренды, которые начнут строить AI-видимость сейчас, получат преимущество, которое будет сложно догнать. Окно возможностей открыто — но оно не будет открыто вечно.
Информация актуальна на декабрь 2025 года. Алгоритмы AI-платформ постоянно меняются — следи за обновлениями и адаптируй стратегию.