Тут занялся исследованием по поводу SEO динамических сайтов (их сейчас большинство).
Короче, Гугл реально научился индексировать SPAшки, типа сайтов на Vue 3, где всё подгружается через JavaScript и AJAX. Раньше это была целая беда — поисковикам нужен был HTML сразу, а не ждать, пока JS отработает. Из-за этого народ выкручивался с SSR, SSG или вообще делал отдельные версии сайтов для ботов. Но сейчас Гугл такой: "Расслабьтесь, я всё вижу!" Проверили на чистом JS и на Vue 3 с vue-router — всё индексируется, даже данные, которые подтягиваются с задержкой через fetch(). Через пару часов сайт уже в поиске с правильным заголовком и описанием. Короче, Гугл тащит, SSR можно не мучать, если только соцсети с их мета-тегами не мешают.]]
Но есть нюансы: каждый сайт стоит проверять, потому что из-за пакетов или логики что-то может пойти не так. Первая загрузка у SPA часто тормозит, и это может занижать рейтинг, даже если всё остальное идеально. Для соцсетей типа Фейсбука JS не катит — им подавай готовые мета-теги с сервера. Кто-то в коментах вообще сказал, что уже 10 лет как SSR для индексации не нужен, и большие шопы типа Walmart это доказывают. Главное — чтобы HTML был понятный, доступный и грузился не через сто лет. Так что SPA рулит, но с умом!