SEO-кухня 28.11.2025 ИИ-агенты могут поднять ссылку на сайт и улучшить его метрики, а могут — украсть уникальные тексты и отобрать аудиторию. В этой статье рассказали, как ограничить запросы нейросетей в robots.txt и зачем это нужно. Своим опытом поделился Дмитрий Дамарнацкий, частный SEO‑специалист, автор телеграм‑канала «Продвигатель» и призёр Кейс‑чемпионата 2025. Зачем ограничивать запросы ИИ‑агентов На сайт в любом случае будут заходить боты. Некоторые, например краулеры, помогают странице: роботы индексируют сайт и добавляют его в выдачу. Другие боты создают избыточную нагрузку на сервер, имитируют поведение пользователя, а иногда и атакуют ваш сайт. К ИИ‑агентам SEO‑специалисты относятся по‑разному. Иногда они делают всё возможное, чтобы их сайт попал в нейровыдачу — так ссылка на сайт и информация с него попадает на высокие позиции, поскольку ИИ‑блоки обычно находятся выше всех сайтов. Но некоторые специалисты считают, что искусственный интеллект ворует клики: пользователь полу
Как в robots ограничить запросы со стороны ИИ-агентов?
29 ноября 202529 ноя 2025
2 мин