Все мы уже сыты по горло сгенерированным ИИ контентом, согласитесь. В последнее время его так много, что человеческие мысли стали цениться особенно сильно. К счастью, нейронка еще не научилась думать и писать в точности, как человек (хотя очень старается), и есть как минимум 5 признаков, по которым можно распознать работу алгоритмов.
Я попросила ChatGPT сгенерировать статью о том, как распознать нейросетевой текст для наглядного сравнения. Внимание, вступление:
«С развитием больших языковых моделей (LLM) тексты, созданные искусственным интеллектом, становятся все более похожими на тексты людей. Эти модели умеют грамотно писать, аргументировать, объяснять и стилизовать под разные жанры, и в результате даже профессиональные редакторы часто не могут с уверенностью сказать, кто автор — человек или машина. Между тем, есть совокупность признаков и методов, которые позволяют с определенной степенью вероятности отличить машинный текст от человеческого.»
С одной стороны, текст вполне логичный, понятный, структурированный, но с другой, какой-то он... неживой, «вылизанный», скорее академический. Много «воды», перечислений, никакого личного мнения и эмоциональности.
Дело в том, что искусственный интеллект не думает и не переживает в человеческом смысле, он предсказывает наиболее вероятное продолжение предложения и текста в целом на основе огромных массивов данных. Именно это становится ключом к распознаванию: искусственно созданный текст часто выглядит чересчур гладким, лишенным шероховатостей, присущих человеческой речи. Разница настолько тонкая, что даже сами ИИ-инструменты не способны распознать написанные их роботизированными коллегами тексты — эта работа требует сочетания критического мышления, внимания к деталям и понимания особенностей человеческой коммуникации.
Хотя мы и не всегда подключаем это сочетание. Летом 2025 года ученые из Германии решили провести эксперимент с участием 63 преподавателей инженерных, экономических и социальных наук. Они попросили каждого добровольца изучать несколько коротких отрывков текстов (по 200–300 слов) и попытаться определить, кто их создал — человек или нейросеть. Только 57% сгенерированных ИИ текстов были распознаны, а написанных человеком — 64%.
Чтобы вычислить деятельность алгоритмов, нужно обратить внимание на несколько факторов.
Как понять, что текст написан ИИ
Структура текстов и предложений
Первым делом даже не стоит вникать в написанное, просто пробегитесь глазами по тексту. ИИ-инструменты часто любят писать по одному и тому же шаблону: вступление — основная часть — вывод. При этом предложения в тексте неоправданно длинные, в них много перечислений, списков, канцеляризмов.
Про повторы упоминает и сам ChatGPT:
«ИИ может использовать одинаковые или близкие по смыслу фразы для выражения схожих идей в разных частях текста, тогда как человек в подобных случаях склонен к вариациям и перефразированию. Это проявляется особенно в длинных текстах: академические статьи, эссе или развернутые ответы на вопросы могут выглядеть слишком плавными, почти "без шероховатостей", что характерно для модели, но не всегда для человека.»
Обратите внимание, в тексте выше всего два предложения, но какие же они громоздкие.
Будем честны, любому человеку станет лень настолько сильно структурировать свое сочинение и продумывать столь сложные предложения. Проще в двух словах объяснить: кто, что, когда и, быть может, как сделал.
Часто пишут, что искусственный интеллект очень любит тире, поэтому пихает его всюду без разбора. Но большое количество этих знаков препинания еще не говорит о том, что текст полностью создан нейросетью, в конце концов, тире любят многие журналисты, редакторы, писатели просто за то, что оно помогает избежать повторов, подчеркивает важные моменты и придает динамику.
Чтобы сразу же вывести «автора» материала на чистую воду, можно провести эксперимент и попросить несколько нейросетей сгенерировать по статье на эту же тему. Если выберете тот же инструмент, что и создатель текста, то результат будет похожим по структуре (не полностью идентичным, поскольку нейросети не хранят в памяти сгенерированные ранее тексты, а каждый раз создают новые). То есть вы вновь увидите вступление, основную часть того же объема и с тем же количеством абзацев, заключение аналогичной длины, схожий стиль изложения и структуру предложений. Возможно, даже заметите совпадение формулировок отдельных фраз и выражений.
Не останавливайтесь на одной нейросети, попробуйте проверить все наиболее распространенные: ChatGPT, YaGPT, GigaChat, Gemini, DeepSeek, Qwen и Grok.
Обилие клише
Опять же, нейросети обучены на огромной базе данных, и они склонны использовать все распространенные выражения, конструкции и обороты речи, встречающиеся в большинстве документов. Поэтому нередко созданные ими тексты изобилуют шаблонными конструкциями вроде «следует отметить», «нужно подчеркнуть», «важно помнить», «можно сделать вывод», «другими словами», «не только..., но и…». ИИ очень любит вводные конструкции и общие фразы, чтобы «дожать» необходимый объем текста.
Идеальная грамотность
Этот пункт можно назвать спорным, но он тоже имеет место быть. Все мы ошибаемся, даже самые грамотные люди способны совершить грамматические, орфографические, логические, да вообще любые ошибки. Но искусственный интеллект не ошибается, он прекрасно знает все правила языка и, можно сказать, хвастливо их демонстрирует, придумывая невероятно сложные структуры предложений и пичкая их запятыми, тире, двоеточиями и другими знаками.
Универсальность формулировок
ИИ не знает всего в идеале, а потому часто использует обобщенные выражения: «многие считают», «широко известно», «чаще всего используется», «специалисты рекомендуют» и тому подобное. Такие фразы лишь создают видимость экспертности, маскируя реальный недостаток знаний.
GigaChat с этим утверждением согласен, но говорит о нем так:
«Искусственный интеллект базируется на анализе огромного массива данных, извлеченных из открытых источников, книг, научных публикаций и веб-сайтов. Этот процесс обусловливает высокую степень вероятности появления в тексте стандартных оборотов, устойчивых конструкций и привычных фраз, таких как "следует учитывать", "стоит отметить", "важно помнить" и другие общие формулировки. Подобные шаблоны становятся очевидными при внимательном чтении текста и служат первым сигналом для распознавания автоматического произведения.»
Недостоверная информация
Компьютерные алгоритмы не запрограммированы на поиск правильной информации. Конечно, можно попросить нейросеть покопаться в интернете, изучить всю информацию и проверить ее достоверность, но большинство плагинов и парсеров, как правило, ориентируются на популярность результатов, а не на их истинность.
Так что вычислить нейросеть поможет фактчекинг. Времени вы потратите немало, но зато точно убедитесь в том, что информация, изложенная в тексте, верная.
А вот ИИ-детекторы лучше не использовать, так как ни один из них не может со 100% точностью определить происхождение текста. Скорее всего, они даже никогда не научатся этого делать, поскольку нейросети постоянно развиваются и стараются создавать все более «человечный» контент. Единственный верный вариант, как научиться вычислять ИИ-тексты, — развивать насмотренность, пользоваться нейросетями и обращать внимание на мелкие детали.