Количество контента. Сгенерированного нейросетями растет не то что с каждым днем – с каждой минутой. Одна из главных опасностей - создание фейковых новостей и дезинформации. Нейросети могут массово производить убедительно выглядящие, но абсолютно ложные материалы.
тех, кто хочет лучше разобраться в том, как создавать с помощью ИИ текст, очень похожие на человеческие, но все же содержащие достоверную информацию приглашаем на бесплатный онлайн-курс "Нейросети. Быстрый старт".
Помимо дезинформации есть и еще одна проблема - использование ИИ школьниками и студентами для написания учебных работ вместо полноценного изучения предмета. Системы типа GPT-3 вполне способны генерировать очень достойные тексты на заданную тему, успешно имитируя авторский стиль человека.
Поэтому мировое сообщество всерьез озабочено поиском возможности обнаруживать контент, сгенерированный нейросетями.
Первым шагом на этом пути слала массовая разработка различных детекторов ИИ-контента. Разработчики, конечно, вовсю хвалят свои детища, но на деле все обстоит вовсе не так радужно.
Тест на человечность: Claude успешно обходит ловушки детекторов ИИ-контента
В начале текущего года был проведен любопытный эксперимент по тестированию возможностей систем обнаружения контента, сгенерированного ИИ. С помощью языковой модели Claude было подготовлено 8 различных текстов - от энциклопедической статьи до сопроводительного письма.
Эти образцы прошли проверку в 7 популярных сервисах, предназначенных для выявления материалов от нейросетей. Однако точный "приговор" инструменты вынесли лишь в 20% случаев. В подавляющем большинстве они ошибочно определили тексты от Claude как написанные человеком.
Показательна неудача разработки от Open AI, нацеленной на распознавание контента нейросетей. Она дала сбой в 74% тестов, то есть успешно провалила задание.
В итоге недавно компания заявила о приостановке проекта и прекращении в него финансовых вливаний и других усилий.
Эксперимент наглядно продемонстрировал, что современные технологии обнаружения ИИ-контента ещё крайне несовершенны. Это серьёзный вызов, ответ на который предстоит найти ученым и инженерам в ближайшее время.
Подводя итог, можно констатировать, что проблема точного обнаружения контента, сгенерированного нейросетями, стоит сейчас очень остро. Во всем мире ведутся активные изыскания в этом направлении.
Необходимо найти максимально эффективный способ отделить тексты, изображения и другие материалы, созданные ИИ, от контента, созданного человеком. Это критически важно для обеспечения информационной гигиены и безопасности.
Одним из перспективных путей видится введение обязательной четкой маркировки ИИ-контента. Но пока неясно, получится ли реализовать такой подход, и чем в итоге закончатся поиски оптимального решения данной проблемы.
Ясно одно - человечеству необходимо выработать адекватный ответ на серьезный технологический вызов современности.