OpenAI присоединяется к Коалиции за происхождение и подлинность контента (C2PA) и вступает в комитет по управлению этой организации, чтобы интегрировать метаданные открытого стандарта в свои генеративные модели искусственного интеллекта для увеличения прозрачности созданного контента.
Стандарт C2PA позволяет сертифицировать цифровой контент с метаданными, подтверждающими его происхождение: был ли он создан полностью при помощи искусственного интеллекта, отредактирован с использованием инструментов искусственного интеллекта или захвачен традиционным способом. OpenAI уже начала добавлять метаданные C2PA к изображениям из своей последней модели DALL-E 3 в чате GPT и API OpenAI. Эти метаданные будут интегрированы в предстоящую модель генерации видео Sora, когда она будет запущена более широко.
«Люди могут по-прежнему создавать обманчивый контент без этой информации (или могут ее удалить), но они не могут легко подделать или изменить эту информацию, что делает ее важным ресурсом для создания доверия», - объясняет OpenAI.
Этот шаг совершается на фоне растущих опасений по поводу возможности использования искусственно сгенерированного контента для введения в заблуждение избирателей перед крупными выборами в США, Великобритании и других странах в этом году. Аутентификация созданного искусственным интеллектом медиаконтента может помочь бороться с deepfakes и другим манипулированным контентом, направленным на дезинформационные кампании.
Хотя технические меры помогают, OpenAI признает, что обеспечение подлинности контента на практике требует коллективных действий от платформ, создателей и обработчиков контента, чтобы сохранять метаданные для конечных потребителей.
Помимо интеграции с C2PA, OpenAI разрабатывает новые методы происхождения, такие как защищенные от подделки водяные знаки для аудио и классификаторов обнаружения изображений, чтобы идентифицировать AI-сгенерированные визуальные элементы.
OpenAI открыла заявки на доступ к своему классификатору обнаружения изображений DALL-E 3 через свою программу доступа исследователей. Этот инструмент предсказывает вероятность того, что изображение происходит от одной из моделей OpenAI.
«Наша цель - обеспечить независимое исследование, которое оценивает эффективность классификатора, анализирует его применение в реальном мире, выявляет соответствующие аспекты для такого использования и изучает характеристики AI-сгенерированного контента», - говорится в сообщении компании.
Внутренние тесты показывают высокую точность отличения не-AI изображений от визуальных элементов DALL-E 3, примерно 98% изображений DALL-E правильно определены, и менее 0,5% не-AI изображений неверно определены. Однако классификатору сложнее отличить изображения, созданные DALL-E, от изображений, созданных другими генеративными моделями искусственного интеллекта.
OpenAI также внедрила водяные знаки в свою кастомную голосовую модель Voice Engine, которая в настоящее время находится в ограниченном предварительном просмотре.
Компания считает, что увеличение принятия стандартов происхождения приведет к тому, что метаданные будут сопровождать контент на протяжении всего его жизненного цикла и заполнит «важный пробел в практиках аутентификации цифрового контента».