Найти в Дзене

Тестирую GPT-o3 и DeepSeek R1 на человечность и обход ИИ-детекторов в копирайтинге/рерайтинге своим промптом.

Тут намечается скорый релиз модели GPT o3 Pro от Open AI, и что-то мне захотелось сегодня ещё раз протестировать и сравнить две популярные рассуждающие модели GPT o3 и DeepSeek R1. Они позиционируются как очень умные, но мне не нужно проводить какой-то глубокий анализ или исследования, мне нужно убедиться, что в моих рядовых задачах я получу отличный результат, а именно: мои сгенерированные тексты должны проходить ИИ-детекцию и не "палиться" перед алгоритмами в разных системах. Вот мой чудо-промп, с помощью которого нейросети пишут отличные человечные и SEO-оптимизированные статьи: Я работаю над ним уже месяцев восемь, и мне удалось собрать в нём некоторые крутые условия и параметры, чтобы получать то, что требуется в ответе от нейросети. Что делает блогер, когда муза покидает его, и писать статью нет ни малейшего желания? Правильно - делать рерайт при помощи нейросетей. Я взял рандомный текст с одной блогерской помойки, которая называется VC.ru Заранее можно прогнать его через ИИ-дете
Оглавление

Тут намечается скорый релиз модели GPT o3 Pro от Open AI, и что-то мне захотелось сегодня ещё раз протестировать и сравнить две популярные рассуждающие модели GPT o3 и DeepSeek R1. Они позиционируются как очень умные, но мне не нужно проводить какой-то глубокий анализ или исследования, мне нужно убедиться, что в моих рядовых задачах я получу отличный результат, а именно: мои сгенерированные тексты должны проходить ИИ-детекцию и не "палиться" перед алгоритмами в разных системах.

Вот мой чудо-промп, с помощью которого нейросети пишут отличные человечные и SEO-оптимизированные статьи:

Я работаю над ним уже месяцев восемь, и мне удалось собрать в нём некоторые крутые условия и параметры, чтобы получать то, что требуется в ответе от нейросети.

Переходим к тестированию моделей

Что делает блогер, когда муза покидает его, и писать статью нет ни малейшего желания? Правильно - делать рерайт при помощи нейросетей.

Я взял рандомный текст с одной блогерской помойки, которая называется VC.ru

-2

Заранее можно прогнать его через ИИ-детектор ZeroGPT:

-3

Видим, что текст написан "ручками" из головы, но это неточно =)

Теперь я захожу в ChatGPT и DeepSeek, у первого выбираю модель o3, у второго R1.

GPT o3
GPT o3
Включл R1 в DeepSeek
Включл R1 в DeepSeek

Скармливаю им свой промпт, жду, когда они закончат свои рассуждения, и отправляю им текст-донор.

Получаю следующее:

GPT
GPT
DeepSeek
DeepSeek

Теперь проверим сгенерированный текст на содержание ИИ-контента.

GPT o3 спалилась только одним абзацем

-8

но набрала всего 6%

Это отличный результат! На сколько мне не изменяет память, раньше o3 генерировала тексты намного хуже, ну в плане палева перед детекторами, и это хорошо, что появился "китайский аналог", который мне очень нравится.

Проверяем результат от DeepSeek:

-9

Он там тоже спалился одним абзацем, но, смотрите, 4.6% наличия ИИ-контента. Пока что, ДипСик R1 лидирует.

Теперь мне хотелось бы перегенерировать и проверить на детекторе новые тексты второй итерации.

-10

ЖПТ показала отличный результат:

o3
o3

ДипСик правился чуть хуже:

R1
R1
Вы берите в расчёт, что в промпте написано "Генери мне текст объёмом от 1000 до 15000 символов", так что это нейросетики ещё суперски справляются, ведь они прям конкретно пишут отсебятину, растягивая исходную донорную статью!

Теперь я хочу с нуля провести ещё одну контрольную проверку, и возьму другой текст.

Нашёл вот такую статью:

-13

Вот такие результаты по детекции:

-14

Всё, генерим...

Закидываю в новые чаты к двум нейросеткам свой крутой промпт:

-15

И копурую текст для нейро-рерайта.

Получил отличные подробные длинные статьи:

ЖПТ
ЖПТ
ДипСик
ДипСик

Проверяю на детекторе:

ЖПТ o3 выдал НОЛЬ!!!1111один

-18

Отличный результат))

Можно брать и публиковать куда угодно, пусть модераторы доказывают, что этот текст был сгенерирован))

Ну и результат у DeepSeek R1:

-19

ОТЛИЧНО!!!

Пойду полностью прочту эти две статьи очень внимательно, и решу, какую я опубликую на свой второй канал.

Заключение

Как мы видим по результатам теста, две рассуждающие модели o3 и R1 отлично справляются с обходом ИИ-детекторов, если использовать правильный промпт, при генерации статей или рерайтов, ну в частности рерайтов, хотя я увеличил объём, так что и рерайтом это уже не назвать.

Интересно, какие показатели детекции ИИ-контента будет выдавать новая языковая модель o3 PRO.

Подпишись, поставь лайк и поделись с друзьями!

Жмякни на колокольчик