Можно ли отличить текст, созданный нейросетью, от текста, написанного человеком? Конечно, большинство ИИ-текстов можно сразу отличить по стилю, манере изложения и подобным характеристикам. Но ведь нейросеть можно обучить так, что люди не смогут увидеть разницу между человеческим текстом и созданным ИИ. Можно ли программным путем определить, что текст создан ИИ, ChatGPT, например?
Люди пишут с личным стилем и индивидуальными особенностями, которые отличают их от других писателей. Оказывается, то же самое характерно и для искусственного интеллекта, включая ведущие модели, такие как ChatGPT, согласно новому исследованию, проведенному под руководством Университета Джонса Хопкинса.
Нейросеть обнаруживает «отпечатки пальцев» нейросетей в текстах
Новый инструмент может не только обнаруживать тексты, созданные ИИ, но и предсказывать, какая крупная языковая модель их создала. Эти результаты могут помочь выявить школьных обманщиков и языковые программы, которые предпочитают люди, распространяющие дезинформацию в интернете.
Мы первыми показали, что текст, сгенерированный ИИ, имеет те же особенности, что и человеческое письмо, и что это можно использовать для надежного обнаружения дезинформации и определения конкретной языковой модели искусственного интеллекта,
— сказал автор Николас Эндрюс, старший научный сотрудник Центра передового опыта в области технологий человеческого языка Университета Джонса Хопкинса.
Работа, которая может выявить программы, склонные к злоупотреблениям, и привести к усилению контроля и мер безопасности, была недавно представлена на ведущей конференции по ИИ — Международной конференции по представлению обучения.
Появление крупных языковых моделей, таких как ChatGPT, сделало создание искусственных поддельных текстов доступным для каждого человека. Большая часть таких текстов безобидна, но школы борются с плагиатом, а злоумышленники распространяют спам, фишинг и дезинформацию.
После выборов 2016 года в США и опасений по поводу иностранного влияния в социальных сетях, Эндрюс заинтересовался разработкой технологий для борьбы с дезинформацией в интернете.
Я сказал, давайте попробуем создать отпечаток кого-то в интернете и посмотрим, соответствуют ли эти отпечатки какой-либо дезинформации, которую мы видим,
— объясняет Эндрюс.
Теперь у нас есть этот молоток, на создание которого мы потратили годы, и мы можем применить его для обнаружения дезинформации, того, что фальшиво, а что нет в интернете. Более того, мы можем выяснить, был ли это ChatGPT, Gemini или LLaMA, поскольку у каждого из них есть лингвистические отпечатки, которые отличают их не только от человеческих авторов, но и от авторов-нейросетей.
Система была создана без намерения применять её к машинным текстам, а модель была обучена до того, как появился ChatGPT. Но те самые особенности, которые помогли отличить человеческих писателей друг от друга, оказались очень успешными в обнаружении текстов, созданных ИИ.
Мы были удивлены, узнав, что каждая нейросеть имеет свой особый стиль . Предполагалось, что все машинные тексты будут иметь один и тот же общий лингвистический отпечаток.
Мы не были первыми, кто создал систему обнаружения текстов, сгенерированных ИИ. Но наш метод, по-видимому, является наиболее точным и гибким, способным быстро реагировать на постоянно меняющиеся модели искусственного интеллекта.
Правоохранительные органы первыми поставили задачу распознавания текстов, созданных ИИ. К такой необходимости их подтолкнул анализ записок с требованием выкупа и другие тексты, написанные подозреваемыми преступниками. Правоохранители хотели сопоставить стиль текста с конкретными лицами.
Команда разработчиков ИИ-помощника, по сути, убрала человеческий, ручной процесс определения письменных особенностей, это было возложено на нейронную сеть. Не было необходимости в указаниях, типа обращать внимания на восклицательные знаки или на то, какой залог (пассивный или активный) был применён. Нейросеть сама разобралась.
Когда команда представила работу на Международной конференции по представлению обучения, ведущий автор Рафаэль Ривера Сото, аспирант первого курса Университета Джонса Хопкинса под руководством Эндрюса, создал провокационную демонстрацию. Он пропустил все рецензии конференции через созданный ИИ-инструмент. Он выявил около 10% рецензий как вероятно сгенерированные нейросетью, скорее всего, ChatGPT.
PS.
Если кликнуть по названию канала, то увидите другие статьи. Можно выбрать ещё что-то интересное для себя. А для просмотра будущих статей и поддержки автора — лучше вообще подписаться. Имеется также постоянно обновляемый гид-путеводитель по статьям канала.
#нейросеть #нейронныесети #ИИ #AI #ПлагиатВИнтернете #ОбнаружениеДезинформации #ChatGPT #ГенерацияТекстов