Robots.txt — это простой текстовый файл на вашем сайте, который говорит поисковикам (Яндекс, Google), какие страницы можно индексировать (включать в поиск), а какие нельзя. Думайте о нём как о табличке «Вход воспрещён» для роботов поисковых систем. Для локального бизнеса этот файл особенно важен — он защищает служебные страницы от попадания в поиск и помогает Яндексу быстрее найти важную информацию о вашем заведении. У каждого сайта есть технические страницы, которые клиенты видеть не должны: Яндекс ежедневно выделяет определённое количество времени на сканирование вашего сайта. Если роботы тратят время на ненужные страницы, они могут не успеть проиндексировать важные — контакты, услуги, цены. Для типичного сайта локального бизнеса рекомендую заблокировать: Откройте любой текстовый редактор (Блокнот на Windows, TextEdit на Mac). Напишите базовые правила: User-agent: *
Disallow: /admin/
Disallow: /wp-admin/
Disallow: /*?*
Sitemap: https://ваш-сайт.ru/sitemap.xml Сохраните файл под имен