Вокруг GEO сейчас много шума. Кто-то называет это новым SEO, кто-то — модным переименованием старых практик, кто-то вообще считает, что нейросети пока не дают бизнесу ничего измеримого.
Мы решили не спорить в теории и проверить все на себе — на сайте собственного агентства Rating Up.
Задача была простая: не «получить красивый скрин», а построить понятную систему и посмотреть, можно ли с нуля вырастить присутствие бренда в AI-ответах так, чтобы это было видно по данным.
За 2,5 месяца получили:
- рост AI-видимости с 0,0% до 6,5%;
- рост AI-упоминаний с 0 до 40;
- попадание сайта в топ-3 по упоминаниям в Алисе AI.
Расскажу, что именно делали, что сработало, а что стало понятно только по ходу проекта.
Что именно мы измеряли
Чтобы не подгонять результат, мы изначально зафиксировали контур мониторинга:
- 124 промпта;
- 5 нейросетей;
- 620 AI-ответов на каждый полный скан.
Это был принципиальный момент. Мы не хотели менять выборку по ходу проекта, потому что тогда любая динамика становится подозрительной: непонятно, это сайт вырос или просто изменился способ подсчета.
У нас логика была такой:
- видимость — доля AI-ответов с упоминанием бренда от общего числа ответов;
- упоминание — любой ответ, где бренд есть в тексте или через ссылку на сайт;
- zero-click — бренд есть в тексте, но ссылки на сайт нет;
- cited — сайт указан как источник.
Если в одном ответе был и бренд, и ссылка, это все равно считалось как одно упоминание.
И еще важный момент: один и тот же промпт в разных нейросетях считался отдельно. Потому что на практике это разные ответы и разная форма присутствия.
С чего стартовали
Старт проекта — 26 января 2026 года.
На старте в мониторинге было:
- 0,0% видимости
- 0 упоминаний
То есть классическая ситуация для большинства сайтов: бренд вроде бы существует, сайт индексируется, контент есть, но в AI-ответах этого почти не видно.
И вот здесь у нас была первая важная гипотеза.
GEO не делается одной правкой.
Если сайт технически рыхлый, структура неочевидная, контент размыт, а внешние сигналы слабые — ждать, что нейросети начнут его системно забирать в ответы, наивно.
Поэтому мы шли не от «быстрых фишек под LLM», а от фундаментальной сборки проекта.
Что делали в первый месяц
На первом этапе мы не пытались сразу наращивать количество страниц. Сначала выстроили базу.
Что вошло в работу:
- технический анализ сайта;
- рекомендации по мобильной и десктопной оптимизации;
- ТЗ по микроразметке;
- подготовка новых форматов контента: FAQ и How-To;
- подготовка внешних статей;
- рекомендации по текущим текстам на сайте и во внешних источниках.
По сути, первый месяц был про то, чтобы сделать сайт понятным для систем, а не просто «наполненным контентом».
Что оказалось критически важным: schema и структура
Один из самых сильных блоков — это не тексты как таковые, а структура сайта и structured data.
Мы выстроили единую JSON-LD-архитектуру и автоматизировали микроразметку для контентных разделов. Это важно, потому что разметка «вручную на каждую страницу» работает только пока у вас 10–15 URL. Если контента много, без автоматизации это быстро превращается в хаос.
В нашем случае schema была настроена для:
- /faq
- /how-to
- /blog
- /geo
- страницы услуги GEO
Отдельно усилили связи между сущностями: организация, сайт, страница, автор, хлебные крошки, тематические признаки.
На практике это дало две вещи:
- сайт стал чище считываться поисковыми системами;
- новые материалы начали встраиваться в общую структуру без ручной сборки каждой единицы.
Это не «волшебная кнопка», но без этого дальнейший рост был бы гораздо слабее.
Что делали во второй месяц
Во второй месяц работа сдвинулась из подготовки в реализацию.
Мы:
- контролировали внедрение правок на сайте;
- запускали и проверяли разделы FAQ и How-To;
- контролировали корректность микроразметки;
- размещали внешние статьи;
- смотрели, по каким вопросам сайт уже появляется в AI, а где еще нет;
- писали новый контент под незакрытые интенты.
Параллельно в начале марта оформили новые разделы:
- /geo
- /faq
- /how-to
А в начале апреля добавили авторство в статьи и обновили author-блоки в микроразметке.
На бумаге это может звучать как набор технических мелочей. На деле именно такие мелочи и складываются в понятный для AI-контур.
Какие цифры получили
Динамика по проекту получилась такой:
- старт: 0,0% видимости и 0 упоминаний
- конец февраля: 0,6% и 4 упоминания
- конец марта: 4,5% и 28 упоминаний
- 17 марта: локальный пик 39 упоминаний и 6,3%
- начало апреля: 40 упоминаний и 6,5%
Если свести в одну линию, получается:
0 → 4 → 28 → 40 упоминаний
0,0% → 0,6% → 4,5% → 6,5% видимости
Для нас это был хороший знак не только потому, что цифры выросли, а потому что рост шел ступенчато и на фиксированной выборке.
То есть это не выглядело как случайный всплеск после одной публикации.
Что интересно: лучше всего сработали не коммерческие страницы
Это, пожалуй, главный практический вывод кейса.
Когда мы посмотрели, какие именно страницы начали попадать в AI-ответы, оказалось, что сильнее всего выстрелили не главная и не стандартные коммерческие услуги.
Лучше всего начали работать:
- FAQ
- How-To
- узкие прикладные материалы
- страницы под конкретные сценарии и вопросы
То есть нейросети охотнее подхватывали страницы, которые отвечают на конкретный вопрос, а не просто описывают услугу в широких формулировках.
Это важный вывод для любого бизнеса.
Если вы хотите расти в GEO, одной оптимизации главной страницы недостаточно. Нужен отдельный слой контента под реальные пользовательские интенты.
Параллельно выросли и обычные SEO-метрики
Хотя фокус был на GEO, классический поиск тоже немного подтянулся.
По Google Search Console:
в феврале было:
- 634 клика
- 88 300 показов
- средняя позиция 12,8
- CTR 0,7%
в марте стало:
- 690 кликов
- 89 200 показов
- средняя позиция 12,4
- CTR 0,8%
Это не тот кейс, где можно кричать «SEO взлетело в космос». Но это хороший индикатор, что GEO-работы шли не вразрез с классическим поиском.
Внешний контур оказался не менее важным, чем сайт
Еще один важный вывод: GEO-рост не ограничивается только on-site работами.
Мы параллельно усиливали внешний контур:
- размещали статьи на внешних площадках;
- обновляли список услуг в карточках компании;
- усиливали присутствие бренда на картах и в каталогах;
- начали публиковать новости в Яндекс Картах;
- отдельно трекали pickup внешних публикаций в AI-ответах.
И вот тут получился интересный инсайт.
Когда мы начали смотреть, какие внешние единицы реально подхватываются AI, оказалось, что быстрее всего начали работать не только статьи, но и медиаконтент — например, YouTube и внешние редакционные форматы.
То есть AI-контур бренда в какой-то момент начинает строиться не только вокруг сайта, но и вокруг более широкой экосистемы сигналов.
Для 2026 года это уже очень похоже на новую норму.
Отдельная валидация: топ-3 по упоминаниям в Алисе AI
Для нас было важно не замкнуться в собственном трекере.
Поэтому мы отдельно смотрели, что показывает Яндекс Вебмастер в блоке видимости сайта в Алисе AI.
И там получили важный сигнал: сайт вошел в топ-3 по упоминаниям в Алисе AI.
Это не значит, что можно напрямую приравнять эту метрику к цифрам из Semantica — это разные системы измерения. Но как внешний слой валидации это очень сильный аргумент:
- внутренний мониторинг показывает рост;
- внешний инструмент тоже фиксирует усиление присутствия.
Для кейса этого более чем достаточно.
Что реально сработало
Если упростить, сработала не одна находка, а связка из пяти факторов.
1. Техническая ясность сайта
Когда сайт структурно собран, разметка валидна, а сущности связаны логично, AI-системам проще использовать такой ресурс.
2. Контент под конкретные вопросы
FAQ и How-To оказались эффективнее, чем абстрактные общие тексты.
3. Экспертность
Авторство и более явный субъект контента усиливают доверие к материалам.
4. Внешние сигналы
Статьи, карточки, новости, медиаформаты — все это расширяет сущность бренда за пределами сайта.
5. Регулярная аналитика
Мы не просто выпускали контент, а смотрели, где он реально появляется, и на этой основе строили следующий шаг.
Что не стоит идеализировать
Чтобы кейс был честным, важно сказать и о границах.
Во-первых, это пока не кейс про прямую выручку.
Мы фиксировали рост AI-видимости и присутствия бренда, а не считали ROMI в деньгах.
Во-вторых, это не “одна кнопка GEO”.
Если у сайта слабая база, простое добавление FAQ или пары статей не даст такой эффект.
В-третьих, не все внешние размещения начинают работать одинаково быстро.
Часть материалов подхватывается раньше, часть позже, часть вообще может не дать заметного AI-pickup на коротком горизонте.
И это нормально. GEO пока очень зависит от формата, тематики, интента и того, как конкретная AI-система собирает ответ.
Что делаем дальше
Дальше план простой: расширять покрытие.
Мы сохраняем фиксированный мониторинг, чтобы не потерять сопоставимость данных, но при этом будем расширять GEO-семантику и использовать новые точки аналитики — в том числе Яндекс Вебмастер — как источник новых тем и запросов.
То есть следующий этап — уже не просто “появиться в AI”, а увеличивать долю присутствия по новым кластерам.
Вывод
Главный вывод для нас такой:
GEO работает. Но только как система.
Не как один FAQ-блок.
Не как одна статья.
Не как одна микроразметка.
И не как «секретная оптимизация под нейросети».
Работает связка:
- техбаза,
- schema,
- контент под интенты,
- экспертность,
- внешний контур,
- аналитика.
На собственном сайте это дало нам рост с 0,0% до 6,5% видимости, 0 → 40 AI-упоминаний и топ-3 по упоминаниям в Алисе AI за 2,5 месяца.
Для нас этого достаточно, чтобы считать GEO не экспериментом, а рабочим направлением.