Найти в Дзене
OVERCLOCKERS.RU

ChatGPT будет маркировать цифровыми тегами изображения, сгенерированные DALL-E 3

В современную эпоху, когда мошенники используют генеративный ИИ для проведения афер или поношения репутации, технологические компании разрабатывают методы, помогающие пользователям проверять контент – прежде всего, изображения. Согласно стратегии борьбы с дезинформацией на 2024 год, OpenAI теперь включает метаданные о происхождении в изображения, созданные с помощью ChatGPT на вебсайте и через API DALL-E 3, при этом мобильные аналоги получат такое же обновление до 12 февраля.

Метаданные отвечают открытому стандарту C2PA (Коалиция за происхождение и подлинность контента), и когда такое изображение загружается в инструмент проверки Content Credentials Verify, можно отследить его линию происхождения. Например, изображение, созданное с помощью ChatGPT, покажет начальный манифест метаданных, указывающий на его происхождение с API DALL-E 3, за которым следует второй манифест метаданных, показывающий, что оно появилось в ChatGPT.

Несмотря на сложную криптографическую технологию по стандарту C2PA, этот метод проверки работает только тогда, когда метаданные остаются нетронутыми; инструмент не имеет пользы, если вы загружаете изображение, созданное ИИ, без метаданных — как это происходит с любым скриншотом или изображением, загруженным в социальные сети. Неудивительно, что и текущие образцовые изображения на официальной странице DALL-E 3 тоже не дали результатов. На своей странице с частыми вопросами OpenAI признает, что это не панацея в войне с дезинформацией, но считает, что ключом является поощрение пользователей активно искать такие сигналы.

Хотя последние усилия OpenAI по борьбе с фальшивым контентом ограничены статическими изображениями, Google's DeepMind уже имеет SynthID для цифрового водяного знака на изображениях и аудио, созданных ИИ. Между тем, Meta тестирует невидимое водяное маркирование с помощью своего генератора изображений ИИ, которое может быть менее подвержено вмешательствам.