Найти в Дзене
SiteAnalyzer

Как появиться в результатах поиска ChatGPT без обучения своего ИИ 👀

Полезные советы от Jon Henshaw

«До тех пор, пока сайты исключают OAI-SearchBot в своем файле Robots.txt, контент их сайта будет иметь право отображаться в результатах поиска ChatGPT».

Итак, если вы заинтересованы в появлении в результатах поиска ChatGPT, Google и Bing, но все же хотите заблокировать их и другие компании, занимающиеся искусственным интеллектом, от использования их контента для обучения модели LLM, вы можете использовать список исключений роботов, которым поделился Джон в своем Robots.txt.

User-agent: Amazonbot
User-agent: Anthropic-ai
User-agent: Applebot-Extended
User-agent: AwarioRssBot
User-agent: AwarioSmartBot
User-agent: Bytespider
User-agent: CCBot
User-agent: ChatGPT-User
User-agent: ClaudeBot
User-agent: Claude-Web
User-agent: Cohere-ai
User-agent: DataForSeoBot
User-agent: FacebookBot
User-agent: Google-Extended
User-agent: GPTBot
User-agent: ImagesiftBot
User-agent: Magpie-crawler
User-agent: Omgili
User-agent: Omgilibot
User-agent: Peer39_crawler
User-agent: Peer39_crawler/1.0
User-agent: PerplexityBot
User-agent: YouBot
Disallow: /


Начав свою карьеру в SEO, я понимаю, зачем традиционным поисковым системам, таким как Google, Apple и Bing, нужен доступ к краулерам — они индексируют контент, чтобы связать пользователей с релевантной информацией на основе поискового поведения. Сайты, как правило, содержат общедоступную информацию, предназначенную для общего доступа, а не государственную тайну.

НО

Ни один опытный SEO-специалист, которого я знаю, не стал бы рассматривать блокировку стандартных поисковых систем через Robots.txt, так как это прямо противоречит целям видимости. Теперь, когда поисковые системы с искусственным интеллектом, такие как Perplexity, ARC и GPT Search, используют семантическое понимание для соответствия намерениям пользователя, их блокировка кажется столь же контрпродуктивной. Эти механизмы искусственного интеллекта кажутся такими же легитимными, как и традиционные поисковые компании, в отношении защиты данных, а в некоторых случаях даже более легитимными.

Наша роль как современных маркетологов заключается не в том, чтобы противостоять технологической эволюции в поисковом поведении, а в том, чтобы:

  • Наблюдение и понимание новых тенденций.
  • Задавайте содержательные вопросы об их влиянии.
  • Внедрять стратегии, которые лучше обслуживают нашу аудиторию.

Будущее поиска, несомненно, основано на искусственном интеллекте. Эти новые механизмы нуждаются в доступе к информации так же, как и их традиционные аналоги для эффективной работы. Давайте примем прогресс, а не будем препятствовать ему.

Больше полезных новостей и инструментов на нашем телеграм-канале https://t.me/siteanalyzer