Роботность в Яндекс Метрике — это доля визитов, относимых к автоматизированным заходам, а не к действиям живых пользователей. Критическим показателем считается 10% — при таком уровне аналитики уже не доверяют статистике, оптимум — до 5%. Разбор ниже: как Метрика отличает бота от человека и как уменьшить процент.
Что такое роботность в Метрике и где её посмотреть в отчётах
Роботность — это доля посещений, которые Яндекс Метрика идентифицирует как автоматизированные. Сюда попадают и явные краулеры — YandexBot, Googlebot, Bingbot, мониторинговые системы UptimeRobot и NodePing — и боты, маскирующиеся под живых посетителей: парсеры цен, скрейперы контента, сервисы накрутки поведенческих факторов, средства разведки перед DDoS-атаками. Высокая роботность искажает четыре ключевые метрики: время на сайте, показатель отказов, глубину просмотра, конверсии — а через них и оценку рекламных каналов.
Посмотреть роботность можно в трёх местах. Первое — отчёт «Стандартные отчёты → Посетители → Роботы» (раздел появился в обновлении сентября 2021). Здесь видно общее количество визитов от ботов, их распределение по правилам фильтрации и причины, по которым алгоритм классифицировал визит как автоматизированный.
Второе — переключатель «Данные» в правом верхнем углу любого стандартного отчёта. По умолчанию стоит «без роботов», но можно переключить на «с роботами» (видны все визиты, включая ботов) или «только роботы» (изолированный сегмент для анализа). При первой настройке счётчика этот переключатель — главный инструмент сравнения: насколько отчёты отличаются с учётом ботов и без них.
Третье — «Сводка», где общая доля роботного трафика отображается в шапке как процент. Если в сводке стоит 18% — это значит, что почти каждый пятый визит был автоматизирован, и реальная аудитория сайта на 18% меньше, чем кажется в обычных отчётах.
Параллельно с просмотром Метрика предлагает три режима фильтрации в настройках счётчика (вкладка «Фильтры»):
- «Учитывать визиты всех роботов» — фильтрация выключена, в отчётах будет всё подряд (нужен крайне редко, для полной картины трафика)
- «Фильтровать роботов только по строгим правилам» — отсев на основе шаблонов IP-адресов и строк User-Agent, известных Яндексу. Базовая чистка, активна по умолчанию.
- «Фильтровать роботов по строгим правилам и по поведению» — добавляется поведенческий слой: алгоритм смотрит на скорость кликов, движения мыши, отсутствие JavaScript, нелогичные тайминги. Это максимальная очистка данных.
Премиум-сервисы накрутки поведенческих факторов борются именно с поведенческим слоем фильтрации — и как раз потому заявленная роботность у них держится в пределах одного процента. Seopapa, например, на главной указывает уровень роботности в Яндекс Метрике менее 0,2% — этого добиваются через свой браузер с реальными отпечатками вместо BAS или Zennoposter, которые на типовых конфигурациях дают «50%+» роботности.
Как Яндекс отличает ботов от людей: 4 уровня антифрода
Алгоритмы Метрики используют ту же экосистему антифрода, что и Поиск с Директом — три независимые системы, обученные на машинных моделях семейства MatrixNet. По данным самого Яндекса, при оценке каждого клика и сессии анализируется до 250 параметров. Все они укладываются в четыре уровня детекции — от грубых сетевых признаков до тонкой статистики.
Уровень 1. Сетевые признаки
Первое, что проверяет антифрод — IP, ASN и провайдер. Datacenter-прокси (Hetzner, OVH, DigitalOcean, AWS, Selectel) сразу попадают в группу риска: реальные пользователи редко заходят с дата-центров, поэтому сотни визитов с одной подсети — почти всегда боты. Сюда же — VPN-сервисы с известными выходными узлами, прокси-операторы из публичных списков, мобильные шлюзы с аномальной частотой запросов.
Параллельно отслеживаются повторяющиеся клики одного IP по одному и тому же сайту в сутки и географическое несовпадение запроса и трафика — например, если по запросу «химчистка в Бутово» 80% переходов идут с IP в Краснодаре, это сигнал. Резидентные прокси (домашние IP реальных пользователей) усложняют детекцию, но не отменяют её — алгоритм смотрит ещё на репутацию подсети.
Уровень 2. Браузерные отпечатки
Каждый браузер при заходе на сайт оставляет уникальный «отпечаток» — комбинацию из User-Agent, разрешения экрана, списка установленных шрифтов, поддержки WebGL, рендеринга Canvas, таймзоны, языковых настроек, плагинов. Метрика собирает 30+ параметров и сверяет их с эталонными профилями реальных пользователей.
Headless-браузеры — Puppeteer, Playwright, Selenium WebDriver — детектируются по десяткам маркеров: пустой navigator.plugins, отсутствие window.chrome, аномальное значение navigator.webdriver, ровный рендер Canvas без артефактов реального GPU. Боты на старых сборках Zennoposter или BAS часто палятся одинаковым отпечатком на сотнях визитов — сигнал, что это автоматизация.
Дополнительные сигналы: пустой localStorage, отсутствие cookie-истории, отключённый JavaScript, отсутствие HTTP-заголовка Referer при запросе скрипта счётчика. Если JS не загружается, Метрика автоматически считает визит роботным — это самое грубое, но рабочее правило.
Уровень 3. Поведенческие паттерны
Третий уровень — самый тонкий и самый сильный. Алгоритм MatrixNet обучен на миллионах сессий живых людей и знает, как выглядит «человеческое» поведение. Боты палятся типичными отклонениями:
- Одинаковое время на странице. Если 200 визитов уходят со страницы ровно через 120 секунд — это боты со скриптовым таймером
- Линейный скролл без пауз и возвратов. Реальный пользователь читает кусками, останавливается, листает назад. Боты крутят страницу с постоянной скоростью
- Отсутствие движений мыши и микрожестов. Живой человек неосознанно водит курсор, останавливается над фотографиями, выделяет текст. Бот — нет
- Нулевая или 100% доля отказов. В норме отказы у разных сегментов колеблются в коридоре 20-45%. Когда подсегмент даёт 0% или 95% — это аномалия
- Идентичные сценарии открытия страниц. Если 50 «пользователей» открывают одну и ту же серию страниц в одинаковом порядке — это паттерн скрипта
К этому уровню добавляются проверки на нажатие клавиш, паттерны клика по разным зонам экрана, реакция на JavaScript-вызовы, отзывчивость на CAPTCHA. Премиум-софт обходит часть этих проверок — но базовые ловушки для дешёвых решений работают надёжно.
Уровень 4. Статистические аномалии
Самый высокий уровень — сравнение трафика сайта с эталонным распределением для тематики. У Яндекса есть профили для каждой ниши: какой CTR норма для коммерческого запроса в категории, какая глубина просмотра у медиа против e-commerce, какой средний показатель отказов для услуг.
Когда трафик сайта внезапно отклоняется от эталона — это сигнал. Скачок CTR с 8-12% до 35% по низкочастотным запросам, тысяча визитов за ночь по запросу с месячной частотностью 200, 90% трафика из одного города при тематике федерального масштаба — всё это статистические маркеры искусственности.
Технологию антифрода Яндекс развивает непрерывно. С 2019 по 2022 год выросло качество детекции примитивных скриптов, в 2023-2025 алгоритмы научились распознавать гибридные системы с реальными исполнителями на мобильных. На начало 2026-го года Метрика умеет отличать большинство массовых ботов от людей — и доля роботного трафика в выдаче по этой причине постепенно растёт: в отчётах видно то, что раньше было скрыто.
Откуда приходит роботный трафик: 6 главных источников
Роботы на сайте — не всегда атака. Часть автоматизированного трафика — обязательная и полезная, часть — нейтральная техническая, часть — реально вредная. Знать источник нужно, чтобы выбрать правильную защиту.
Источник 1. Поисковые краулеры. YandexBot, Googlebot, Bingbot, AhrefsBot, SemrushBot, MJ12bot, DotBot — индексируют сайт для поисковиков и SEO-сервисов. Это полезные роботы: без них сайт не появится в выдаче. В Метрике они отсекаются на уровне «строгих правил», в отчёт «Роботы» попадают как «по User-Agent».
Источник 2. Системы мониторинга uptime. UptimeRobot, NodePing, Ping-Admin, Pingdom — пингуют сайт каждые 1-5 минут, чтобы засечь падение. У среднего сайта на мониторинге может быть 200-1500 визитов в сутки от таких систем, и все они помечаются Метрикой как роботы. Если включена связка с собственными внешними мониторингами — это нормальный технический шум.
Источник 3. Парсеры конкурентов. Боты, которые собирают цены, остатки, отзывы, контент, описания товаров — массовая практика в e-commerce и услугах. Идут с резидентных и датацентровых прокси, маскируются под живых пользователей. В Метрике видны как «фильтрация по поведению»: одинаковая глубина просмотра, ровный обход карточек, отсутствие конверсий.
Источник 4. Накрутка ПФ конкурентами против вас. Чёрный SEO-приём — запустить ботов на чужой сайт, чтобы испортить ему поведенческие. Признаки: всплеск визитов из поиска по коммерческим запросам, отказы 90%+, время на сайте до 5 секунд, переходы только на 1-2 страницы. Метрика помечает такой трафик как «роботный по поведению», но если накрутчик использует продвинутые сервисы с реальными профилями — часть визитов проскочит.
Источник 5. DDoS-разведка и реальные атаки. Перед мощной атакой злоумышленники прощупывают сайт нагрузочными скриптами — это фиксируется как короткие массовые визиты, иногда в нерабочие часы (3-5 утра по местному времени), с однотипными User-Agent. Если в Метрике резко появилось 5000+ визитов за час с одной ASN — это уже не SEO-проблема, а кибербезопасность.
Источник 6. Боты-скрейперы и неэтичные SEO-сервисы. Самосборные скрипты для сбора данных, дешёвые программы автоматизации (BAS, Zennoposter), боты для накрутки счётчиков — все они в большинстве случаев палятся фильтром по поведению. На странице 100 визитов могут давать 30-50% доли роботности именно из-за таких заходов.
Понимание источников меняет логику борьбы. От поисковых краулеров избавляться не нужно. От мониторингов — фильтровать через IP. От парсеров и накрутки — защищать сайт через WAF и Bot Management. Атаки — это уже работа сетевых инженеров с платформами уровня Cloudflare и аналогичными CDN.
Какая роботность нормальна, а какая — сигнал тревоги
Универсального «нормального» процента нет — он зависит от ниши, размера трафика, региона и стажа сайта. По данным Promopult и публичным аудитам, есть три ориентира:
- до 5% — здоровая ситуация, фильтры работают, разбираться нужно только при росте
- 5-10% — допустимый коридор для большинства проектов, но с роботностью >7% уже стоит проверять источники
- 10%+ — критическая зона: рекламодатели и аналитики не доверяют статистике, в Метрике искажены ключевые метрики, на сайт нужно смотреть пристально
При роботности 25-30% и выше алгоритмы Яндекса часто понижают сайт в выдаче — слишком много шумного трафика воспринимается как сигнал манипуляции с поведенческими.
Новостные порталы и сайты с большим трафиком часто имеют повышенную роботность из-за RSS-агрегаторов, парсеров новостей, систем мониторинга СМИ — это нормально. Маленькие коммерческие сайты с роботностью 15%+ — почти всегда жертвы накрутки конкурентов или дешёвых ботов.
Признаки, что роботность реально вышла из-под контроля:
- В отчёте «Источники» одна категория (например, «Прямые заходы») даёт 80%+ роботного трафика
- В отчёте «География» внезапно появляется один город, дающий 60%+ роботных визитов
- Есть запросы из «Поисковых фраз» с месячной частотностью 100, по которым в Метрике пришло 5000 визитов
- Время на сайте у роботного сегмента — точно 60 или 120 секунд (скриптовый таймер)
- Доля отказов у роботного сегмента — ровно 0% или 100%
Эти симптомы — повод запустить пошаговую диагностику.
Как уменьшить роботность: пошаговая диагностика
Универсального «выключателя» роботного трафика в Метрике нет. Снижение идёт через 7 последовательных шагов — от настройки фильтров до защиты сайта на уровне сервера.
Шаг 1. Включить максимальный режим фильтрации. В настройках счётчика → «Фильтры» выбрать «Фильтровать роботов по строгим правилам и по поведению». Этот режим использует поведенческий слой MatrixNet и убирает большинство ботов, маскирующихся под пользователей. Часть роботного трафика после переключения исчезнет из отчётов автоматически.
Шаг 2. Сравнить отчёты «с роботами» и «без роботов». Открыть «Источники, сводка» и посмотреть распределение трафика в обоих режимах. Если разница в каком-то канале (например, «Прямые заходы») огромная — это и есть главный поставщик ботов. С остальными каналами после фильтрации можно работать как обычно.
Шаг 3. Сегментировать роботный трафик по источникам. В отчёте «Источники, сводка» переключить «Данные → Только роботы» и посмотреть, откуда боты приходят. Поисковые системы — обычно нормальные краулеры. Прямые заходы — мониторинг или дешёвые скрипты. Социальные — редко, признак накрутки. Реклама — часто click-fraud в Директе.
Шаг 4. Найти аномалии в отчёте «Технологии». В «Технологиях → Браузеры» посмотреть распределение. Если на первом месте Chrome 68 (старая версия) с 30% долей — это бот-фермы, которые забыли обновить браузер. Если все боты идут с одного разрешения экрана и одинакового User-Agent — это автоматизация.
Шаг 5. Сегментировать в Вебвизоре. В отчёте «Посетители и клиенты» создать сегмент с условием «Глубина просмотра ≥ 3 + Время на сайте ≤ 30 секунд». Открыть пять-десять записей в Вебвизоре — реальный пользователь так не действует. Если в записях видно мгновенный скролл, отсутствие движений мыши, идентичные траектории — это боты. Профили можно пометить комментариями для дальнейшего анализа.
«Для очистки данных нужно включать оба режима — и строгие правила, и фильтр по поведению. А для верификации подозрительного трафика — открывать Вебвизор и смотреть, как ведут себя сегменты с тремя и более визитами за тридцать секунд. Реальный пользователь так не действует — это всегда автоматизация».— Яков Осипенков, специалист по веб-аналитике, автор образовательного проекта osipenkov.ru
Шаг 6. Добавить IP-адреса в исключения. В настройках счётчика → «Фильтры» → «По IP-адресам» внести: офисные адреса команды, IP мониторинговых систем, известные подсети парсеров (если найдены). Метрика прекратит учитывать визиты с этих IP — отчёты станут чище.
Шаг 7. Защитить сайт на уровне инфраструктуры. Если роботность держится 15%+ даже после фильтров — проблема за пределами Метрики. Подключение к сети Cloudflare с включённым Bot Management режет 90% роботного трафика ещё до того, как он дойдёт до сайта: WAF блокирует подсети с плохой репутацией, JS-challenge отсекает headless-браузеры, Rate Limiting режет аномальные пики запросов. Альтернативные решения — в категории WAF-сервисов и защиты от DDoS.
После этих шагов роботность обычно падает до 3-7% — нормального коридора для большинства проектов. Если не упала — стоит искать накрутку конкурентами или техническую утечку (например, пиксель Метрики стоит на парковочной странице, индексируемой ботами).
Связь роботности с накруткой ПФ и ранжированием в Яндексе
Роботность — не только косметическая проблема в отчётах. Она напрямую завязана на ранжирование. Система Яндекса использует поведенческие сигналы (CTR в выдаче, длина клика, возвраты на поиск, доля прямых брендовых запросов) при определении позиций — и видит роботный трафик как один из факторов риска. Сайт с резко растущей роботностью попадает под пристальное внимание антифрода Яндекс.Поиска и может угодить под понижение или фильтр «Многорукий бандит».
«Накрутку поведенческих факторов делают аккуратно или не делают вообще. Сама технология работает — Яндекс ранжирует сайты с лучшими ПФ выше, и это факт. Но есть нюансы: Яндекс закручивает гайки, и если попадёшь не к топовым исполнителям, можно отлететь обратно или ниже исходных позиций. Плюс абонентская плата — сайт подсаживается на иглу: если отключаешь сервис, рост обваливается».— Михаил Шакин, SEO-консультант, автор YouTube-канала «Михаил Шакин SEO» с 60+ тыс. подписчиков
В премиум-сервис Seopapa с реальными отпечатками браузеров этот риск решается архитектурно: сервис использует свой браузер вместо публичных Zennoposter и BAS, индивидуальные поведенческие скрипты под каждый сайт и нагул профилей по запросам реальных пользователей. На сайте сервиса уровень роботности в Яндекс Метрике заявлен как «менее 0,2%» — против «50%+» у типовых решений на BAS / Zennoposter. Цена — от 10 000 ₽/мес за 1 500 визитов и 10 ключевых фраз, с 7-дневным бесплатным тестом.
Параллельно на рынке есть и другие решения, попадающие в категорию сервисов накрутки ПФ в Яндексе. Они отличаются ценой, технологией и средними показателями роботности.
Monstro — гибрид облачного сервиса и десктопного приложения для Windows. Боты выполняют поисковые запросы в Яндексе, Google, YouTube и Bing, перед заходом на сайт принудительно блокируют скрипт Метрики — переходы видны только в Вебмастере. Это нестандартный подход: визиты не попадают в отчёты Метрики, и отдельно роботность по ним не растёт. Тарификация — 2 ₽ за каждое автоматизированное действие в облаке или ключ-лицензия от 2 750 ₽/мес для десктопа.
Alpine Soft — десктопный софт под Windows с лицензиями от 5 000 ₽/мес за 2 ПК. Особенность — полный контроль клиента над инфраструктурой: свой сервер, свои прокси, своя антикапча. В FAQ сервиса упомянута возможность накрутки метрик Яндекс Метрики и Google Analytics: посещения, время на сайте, целевые действия. Подходит SEO-агентствам, которые хотят держать всю инфраструктуру у себя.
DailyPFBot — Telegram-бот для накрутки ПФ в Яндексе и Google с тарификацией от 3 ₽/переход и бонусом 1 000 ₽ при регистрации. Главное позиционирование — плавный рост показателей без аномальных всплесков, нагул профилей с накопленной поисковой историей.
Полный набор инструментов из ниши собран в каталоге инструментов накрутки поведенческих факторов. Перед выбором стоит проверить три параметра: заявленная роботность в Метрике, тип браузерного движка (свой vs BAS/Zennoposter), технология формирования профилей (реальная история vs синтетика).
Накрутка ПФ нарушает правила Яндекса в его явной формулировке. Риск санкций есть всегда — даже у топовых сервисов. Но между «дешёвой накруткой с роботностью 50%+» и «премиум-решением с роботностью <1%» разница не стилистическая, а функциональная: в первом случае сайт почти гарантированно попадёт под фильтр, во втором — шанс минимизирован. Это и есть главное технологическое разделение рынка по состоянию на 2026 год.
Защита сайта от ботного трафика: WAF, JS-challenge, фильтры
Метрика — это аналитика постфактум. Чтобы боты не доходили до сайта вообще, нужна защита на уровне инфраструктуры. Стандартный стек состоит из четырёх слоёв.
Слой 1. CDN с Bot Management. Cloudflare на бесплатном плане уже блокирует часть автоматизированного трафика. Платный режим (Pro от 20 $/мес) добавляет Bot Management — машинное обучение анализирует поведенческие сигналы перед тем, как пропустить запрос на сервер. По данным самой Cloudflare, платформа обслуживает 20% сайтов в интернете и блокирует 215 млрд киберугроз в день — у неё гигантская база подсетей с плохой репутацией.
Слой 2. WAF (Web Application Firewall). На уровне CDN или сервера. Cloudflare WAF использует управляемые правила и OWASP Top-10 — блокирует SQL-инъекции, XSS-атаки, попытки подобрать пароли. Параллельно режет очевидных ботов по сигнатурам (User-Agent с известными ботнетами, подозрительные заголовки, нелегитимные методы HTTP).
Слой 3. JS-challenge и CAPTCHA. Если запрос вызывает подозрение, CDN отдаёт страницу с JavaScript-проверкой: реальный браузер выполняет код за миллисекунды и проходит, headless-бот без полноценного движка V8 — нет. Альтернатива — невидимая reCAPTCHA или hCaptcha с поведенческим скорингом. Это режет 80-90% дешёвых скрейперов.
Слой 4. Rate Limiting и Geo-блокировки. Cloudflare Rate Limiting режет одного клиента, который делает больше N запросов в секунду — против парсеров. Geo-блокировки помогают, если сайт работает только на Россию: трафик из Бразилии или Китая в коммерческой нише — почти всегда роботный.
Помимо Cloudflare на рынке есть отечественные альтернативы из категории сервисов веб-аналитики и кибербезопасности — DDoS-Guard, Qrator Labs, StormWall, Solidwall. Для большинства SMB-проектов хватает Cloudflare Free Plan + JS-challenge на уровне CMS или плагина WAF.
Параллельно в самой Метрике стоит настроить связку с Вебмастером от Яндекса: в разделе «Безопасность и нарушения» Вебмастер показывает, не помечен ли сайт как заражённый или скомпрометированный — иногда внезапная роботность из-за того, что сайт пользуется недобросовестной CMS или подцепил чужой скрипт через плагин.
Сервисы для аналитики и работы с ботами: что использовать в 2026 году
Стек инструментов для контроля роботности на сайте складывается из четырёх блоков: веб-аналитика, защита, SEO-сервисы, инструменты управления ПФ.
Веб-аналитика. Базовый набор — счётчик Яндекс Метрики для трафика из Рунета, Google Analytics для глобальных проектов и интернационального трафика. У GA4 другая логика классификации ботов: фильтрация по списку IAB Spider/Bots List, без поведенческого слоя как в Метрике. Поэтому для российского сайта данные Метрики обычно «честнее» — она лучше отлавливает накрутку и парсеры конкурентов.
Защита. Главный инструмент — сервис Cloudflare с Bot Management для DDoS, WAF и блокировки автоматизированного трафика. Для российских хостингов есть локальные альтернативы из категории защиты от DDoS — DDoS-Guard, Qrator, StormWall.
Управление ПФ (если задача — продвижение). Премиум-сегмент с минимальной роботностью представляет платформа Seopapa (заявленная роботность <0,2%, свой браузер, индивидуальные скрипты). Среднеценовой сегмент — Monstro и Alpine Soft. Бюджетные решения с Telegram-интерфейсом — DailyPFBot. Полный список доступен в каталоге инструментов автоматизации ПФ для Яндекса.
Дополнение. Hotjar и Microsoft Clarity — для записи сессий и тепловых карт, дополняют Вебвизор Метрики. Бесплатный Clarity у Microsoft подходит большим сайтам: лимит на запись сессий выше, чем в Метрике.
При выборе сервисов критичны три параметра: поддержка российских требований ФЗ-152, наличие свободного тарифа для теста, прозрачность по показателям эффективности. Накрутка ПФ — рискованный класс инструментов, и здесь имеет смысл начинать с бесплатных тестов и только потом переходить на платные тарифы.
Часто задаваемые вопросы
Почему в Яндекс Метрике резко выросла роботность?
Резкий рост роботности обычно вызван четырьмя причинами: накрутка ПФ конкурентами против сайта, появление сайта в публичных списках для парсинга, активность нового мониторингового сервиса, разведка перед DDoS-атакой. Реже — обновление алгоритмов антифрода Метрики, после которого «вылезают» боты, которые раньше не отсекались. Чтобы найти причину, нужно сегментировать трафик по «Источникам» в режиме «Только роботы» и сравнить динамику со старыми периодами.
Как отключить учёт роботов в отчётах?
В настройках счётчика → «Фильтры» включить «Не учитывать посещения роботов» и выбрать режим «Фильтровать роботов по строгим правилам и по поведению». В правом верхнем углу любого отчёта в шапке «Данные» переключиться на «без роботов». После этих двух действий все основные отчёты будут показывать только живой трафик. Полностью обнулить роботность нельзя — это технический показатель, который Метрика всегда фиксирует.
Можно ли вообще снизить роботность до нуля?
Нет. Поисковые краулеры (YandexBot, Googlebot) и системы мониторинга всё равно будут заходить на сайт — это полезные роботы, без них сайт не индексируется и не отслеживается. Реалистичная задача — снизить роботность до 3-5% в коммерческих нишах и 5-10% в инфо-проектах через фильтры Метрики, IP-исключения и защиту через WAF.
Влияет ли роботность на позиции сайта в Яндексе?
Косвенно — да. Сама роботность напрямую не используется в формуле ранжирования, но связана с поведенческими сигналами через антифрод Поиска. Сайт с роботностью 25%+ воспринимается как объект манипуляций — растёт риск понижения, фильтра «Многорукий бандит» или санкций за накрутку ПФ. Сайты с роботностью до 5-7% такому риску не подвержены.
Чем «фильтр по строгим правилам» отличается от «фильтра по поведению»?
«Строгие правила» отсекают ботов по техническим признакам: известный User-Agent, IP из списка датацентров, отсутствие JavaScript, отсутствие HTTP-заголовка Referer. Это базовый фильтр, активный по умолчанию. «По поведению» добавляет анализ через MatrixNet: одинаковые тайминги, линейный скролл, отсутствие движений мыши, нелогичные паттерны. Этот режим жёстче — отсеивается часть пограничных визитов, но в обмен на более чистые данные. Для большинства сайтов оптимален комбинированный режим.
Главная ошибка владельцев сайтов — относиться к роботности как к «галочке Яндекса, которая ни на что не влияет». На самом деле это диагностический показатель: 25% роботности означает, что четверть визитов в отчётах — фантомы, а реальная аудитория сайта на четверть меньше. Именно поэтому фильтрация роботов в Метрике — обязательный шаг перед любым анализом конверсии или эффективности рекламы. А для сайтов, которые работают над поведенческими сигналами в выдаче, логичный следующий уровень — премиум-сервисы с заявленной роботностью менее одного процента, такие как Seopapa с заявленной роботностью менее 0,2%: они снимают главное противоречие между «накрутка ПФ работает» и «накрутка ПФ опасна», переводя продвижение в зону, где визиты в Метрике классифицируются как живые.