Что меня, как вебмастера, напрягает в реалиях современного интернета? Интеллектуальные боты, которых невозможно отличить от человека. Вернее, почти невозможно. Овчинка выделки просто не стоит, т.к. придётся в ответку такую же интеллектуально-навороченную систему писать.
Это раньше боты были тупые, как пробки. Накидывались на сайт, пытаясь за секунду всосать сто страниц (палится элементарно). Когда стали поумнее и не загружали много сразу - палились на невыполнении скриптов на странице и запрашивании определённых "ловушек", которые пользователи в браузерах не трогали. Но, шло время, и ботоводы здорово поднаторели... Теперь действия ботов почти ничем не отличаются, а если и отличаются - фильтры ставить опасно, т.к. можно захватить ими "нормальных" юзверей. Сиречь, людей.
Я не особо понимаю, зачем и кому это в современных реалиях вообще надо - выгуливать ботов на сайтах. Все эти старинные "накрутки" и "раскрутки" ныне, очевидно, практически не работают (или работают, но не настолько предсказуемо, как раньше). Кроме того, боты на сайте даже делают медвежью услугу: та же Яндекс.Метрика пробивается ими наглухо и считает их в общий трафик. Можно всем показывать: смотрите, на моём сайте тысячи посетителей (хотя это не так; вернее, не всегда так).
Сам по себе паразитный трафик ни на что не влияет; мега-капчу всё равно не пробивают, комментарии в порядке, никаких фекальных заливов. Разве что счётчики доступа к файлам тоже подсчитывают ботяр, но это и пофиг, в принципе (хотя десять лет я бы такого не произнёс, однако, времена меняются, как и моё отношение к происходящему). Но ощущение того, что ты отныне бессилен перед этим говном - не ободряет.