Получается забавная картина. Компании годами учат нас не доверять всему, что видим в сети, и вот наступает момент, когда их собственные творения верят фейкам без тени сомнения. Новое исследование специалистов NewsGuard показало ироничный и немного тревожный парадокс: ведущие чат-боты с искусственным интеллектом с поразительной лёгкостью принимают видео, сгенерированные нейросетью Sora от OpenAI, за чистую монету. Причём не справляется даже родной продукт — ChatGPT. Казалось бы, Sora уже успела наделать шума своей способностью создавать неотличимые от реальности ролики. Но, видимо, её «творчество» вводит в заблуждение не только людей. Тестирование было простым: эксперты загрузили в чат-боты 20 видео от Sora — часть с водяными знаками, часть без них. Результаты, мягко говоря, плачевные. Самый откровенный «провальщик» — Grok от xAI. Он дал неверный ответ в 95% случаев, то есть 38 раз из 40 не смог распознать подделку. ChatGPT, детище той же OpenAI, что создала Sora, ошибся в 92,5% случаев
ИИ обманул сам себя: как ChatGPT, Gemini и Grok провалили тест на распознавание видео от Sora
24 января24 янв
39
3 мин