ИИ-детекторы становятся обязательным этапом проверки контента: их используют вузы при проверке студенческих работ, бренды при анализе текстов у копирайтеров, поисковики выявляют попытки манипуляций и создания сайтов с «нечеловеческим» контентом. Цель этой статьи состоит не в том, чтобы научить копирайтеров обходить ИИ-детекторы. Это было бы нечестно по отношению к «живым» коллегам, а интернет наполнился бы шаблонными статьями, которые на 30% состоят из фейковой информации. Алгоритмы типа GPT-4 выдают тексты с низкой «неожиданностью» (perplexity) и ровной «ритмикой» (burstiness). Именно эти метрики дали жизнь первым публичным сканерам – OpenAI AI Text Classifier, GPTZero, ZeroGPT и др. Хотя детекторы далеки от стопроцентной точности, для ряда площадок любое срабатывание уже повод для бана статьи или снижения рейтинга. В таблице 1 отражены ключевые метрики, на которые ориентируются детекторы. Вторая волна исследований пошла глубже, считая частотность частей речи, пунктуационных паттернов