Найти в Дзене

Ошибки разработчиков и владельцев сайтов в эпоху AI.

Будет полезно разработчикам, SEO-специалистам и всем, кто пилит сайты на React, Next.js, Vue, Nuxt и прочие SPA-фреймворки. Самая частая проблема — владельцы сайтов блокируют не тех ботов. В попытке защититься от паразитных они закрывают доступ и тем, кто как раз формирует базу знаний для нейросетей. В итоге ИИ просто не видит сайт. Контент есть, но не для моделей — значит, вас нигде не процитируют. Вторая ошибка — всё рендерится через JavaScript. На экране у пользователя текст появляется, а вот робот его не видит. Для ИИ это пустая страница, даже если вы написали идеальную статью. Третья — спрятанный контент. Авторизация, «доступ только после входа» — для нейросетей это просто закрытая дверь. А если бот не может прочитать страницу, он не включит её в свои ответы. И да, это значит, что ваш бренд не будет существовать в ИИ-поиск Главный враг сайта — не Google, а плохие UI-решения на JavaScript. Если сайт работает через React/SPA, но сделан без понимания, как это влияет на индексацию —

Будет полезно разработчикам, SEO-специалистам и всем, кто пилит сайты на React, Next.js, Vue, Nuxt и прочие SPA-фреймворки.

Самая частая проблема — владельцы сайтов блокируют не тех ботов. В попытке защититься от паразитных они закрывают доступ и тем, кто как раз формирует базу знаний для нейросетей. В итоге ИИ просто не видит сайт. Контент есть, но не для моделей — значит, вас нигде не процитируют.

Вторая ошибка — всё рендерится через JavaScript. На экране у пользователя текст появляется, а вот робот его не видит. Для ИИ это пустая страница, даже если вы написали идеальную статью.

Третья — спрятанный контент. Авторизация, «доступ только после входа» — для нейросетей это просто закрытая дверь. А если бот не может прочитать страницу, он не включит её в свои ответы. И да, это значит, что ваш бренд не будет существовать в ИИ-поиск

Сегодня SEO — это не просто "собрать семантику и пофиксить метатеги".

Главный враг сайта — не Google, а плохие UI-решения на JavaScript. Если сайт работает через React/SPA, но сделан без понимания, как это влияет на индексацию — он уже мёртв в поиске.

Google умеет рендерить JavaScript. Но не всегда и не полностью. И уж тем более не умеют это делать нейросети (ChatGPT, Perplexity и т.д.).

  • Полностью на CSR — плохо для SEO.
  • Полностью на SSR — тяжело и дорого в поддержке.

Поэтому нормальный подход сейчас — гибрид:

  • Важные страницы (категории, карточки, блоги, услуги) отдаются как SSR.
  • Динамические штуки (фильтры, корзина, личный кабинет) — через CSR.

Как исправить (кратко):

1.Только <a href=""> для внутренних ссылок — никаких onClick-роутов.
2.SSR или pre-render для важного контента и навигации.
3.Link-компоненты должны рендерить полноценную ссылку, не div.
4.Проверять сайт глазами бота через curl: curl -A "Googlebot"
site.com
5. Отдельная перелинковка в HTML, а не только в interface.

Самое важное:

Если сайт доступен только через JS-роутинг — для Google он не связан внутри.
Для поисковика он выглядит как
набор разрозненных страниц, а не структура.

Алексей Кузьмин | IT DevOps SEO Продвижение на маркетплейсах

IT DevOps Web SEO от Алексея