Антиплагиат недавно научился определять сгенерированный нейросетями текст. Решили проверить, так ли это. На ввод мы дали сервису файл на 29 страниц, который полностью состоял из сгенерированного текста из разных чат-ботов – ChatGPT, Claude, Perplexity, Gemini и Алисы. В результате проверки действительно оказалось, что «подозрение» на генерацию есть. Но где именно? Только на 6 страницах, в отдельных абзацах или предложениях. И даже там сервис не мог точно сказать, что текст сгенерирован. Это – ожидаемый исход, когда дело касается «детекции» нейросетей. Компания наступила на те же грабли, что и многие до неё: точно и надёжно определить, был ли текст сгенерирован и в какой степени – невозможно. Мы отлично помним, как детекторы ИИ текста заклеймили текст Библии и Конституции США как «сгенерированный» – из-за того, что он часто использовался в дата-сете. Были случаи в США, когда ложно обвинённые в использовании нейросетей студенты получали 0 баллов за свои сочинения. А даже если и не ложно