Стремительное распространение технологий генеративного искусственного интеллекта привело к тому, что теперь в интернете стало сложно определить, что является реальностью, а что фейком. Одним из главных виновников в происходящем является компания OpenAI, разработавшая ChatGPT. Осознавая свою вину, компания пообещала предоставить инструменты для выявления контента, созданного искусственным интеллектом, и вот наконец-то выполнила свое обещание. Теперь разработчики могут подать заявку на участие в тестировании нового классификатора изображений, способного распознавать до 98% поддельных ИИ-изображений. Тем не менее, все равно существует множество способов обмануть этот детектор. В настоящее время самый надежный способ определить, создано ли изображение ботом Dall-E 3 от OpenAI – проверить метаданные. С начала этого года OpenAI начала добавлять метаданные C2PA ко всем изображениям Dall-E, помечая их как ИИ-контент. Видеогенератор Sora также будет иметь эти метаданные после своего релиза. По
Новый инструмент OpenAI позволяет обнаруживать фейковые ИИ-изображения с точностью 98%
8 мая 20248 мая 2024
1
2 мин