Найти в Дзене
НейроМонстр

OpenAI предпринимает шаги для повышения прозрачности AI-генерируемого контента

OpenAI присоединяется к Коалиции за происхождение и подлинность контента (C2PA) и вступает в комитет по управлению этой организации, чтобы интегрировать метаданные открытого стандарта в свои генеративные модели искусственного интеллекта для увеличения прозрачности созданного контента.

Стандарт C2PA позволяет сертифицировать цифровой контент с метаданными, подтверждающими его происхождение: был ли он создан полностью при помощи искусственного интеллекта, отредактирован с использованием инструментов искусственного интеллекта или захвачен традиционным способом. OpenAI уже начала добавлять метаданные C2PA к изображениям из своей последней модели DALL-E 3 в чате GPT и API OpenAI. Эти метаданные будут интегрированы в предстоящую модель генерации видео Sora, когда она будет запущена более широко.

«Люди могут по-прежнему создавать обманчивый контент без этой информации (или могут ее удалить), но они не могут легко подделать или изменить эту информацию, что делает ее важным ресурсом для создания доверия», - объясняет OpenAI.

Этот шаг совершается на фоне растущих опасений по поводу возможности использования искусственно сгенерированного контента для введения в заблуждение избирателей перед крупными выборами в США, Великобритании и других странах в этом году. Аутентификация созданного искусственным интеллектом медиаконтента может помочь бороться с deepfakes и другим манипулированным контентом, направленным на дезинформационные кампании.

Хотя технические меры помогают, OpenAI признает, что обеспечение подлинности контента на практике требует коллективных действий от платформ, создателей и обработчиков контента, чтобы сохранять метаданные для конечных потребителей.

Помимо интеграции с C2PA, OpenAI разрабатывает новые методы происхождения, такие как защищенные от подделки водяные знаки для аудио и классификаторов обнаружения изображений, чтобы идентифицировать AI-сгенерированные визуальные элементы.

OpenAI открыла заявки на доступ к своему классификатору обнаружения изображений DALL-E 3 через свою программу доступа исследователей. Этот инструмент предсказывает вероятность того, что изображение происходит от одной из моделей OpenAI.

«Наша цель - обеспечить независимое исследование, которое оценивает эффективность классификатора, анализирует его применение в реальном мире, выявляет соответствующие аспекты для такого использования и изучает характеристики AI-сгенерированного контента», - говорится в сообщении компании.

Внутренние тесты показывают высокую точность отличения не-AI изображений от визуальных элементов DALL-E 3, примерно 98% изображений DALL-E правильно определены, и менее 0,5% не-AI изображений неверно определены. Однако классификатору сложнее отличить изображения, созданные DALL-E, от изображений, созданных другими генеративными моделями искусственного интеллекта.

OpenAI также внедрила водяные знаки в свою кастомную голосовую модель Voice Engine, которая в настоящее время находится в ограниченном предварительном просмотре.

Компания считает, что увеличение принятия стандартов происхождения приведет к тому, что метаданные будут сопровождать контент на протяжении всего его жизненного цикла и заполнит «важный пробел в практиках аутентификации цифрового контента».