Найти в Дзене
Вячеславный интернет

ИИ обманул сам себя: как ChatGPT, Gemini и Grok провалили тест на распознавание видео от Sora

Получается забавная картина. Компании годами учат нас не доверять всему, что видим в сети, и вот наступает момент, когда их собственные творения верят фейкам без тени сомнения. Новое исследование специалистов NewsGuard показало ироничный и немного тревожный парадокс: ведущие чат-боты с искусственным интеллектом с поразительной лёгкостью принимают видео, сгенерированные нейросетью Sora от OpenAI, за чистую монету. Причём не справляется даже родной продукт — ChatGPT. Казалось бы, Sora уже успела наделать шума своей способностью создавать неотличимые от реальности ролики. Но, видимо, её «творчество» вводит в заблуждение не только людей. Тестирование было простым: эксперты загрузили в чат-боты 20 видео от Sora — часть с водяными знаками, часть без них. Результаты, мягко говоря, плачевные. Самый откровенный «провальщик» — Grok от xAI. Он дал неверный ответ в 95% случаев, то есть 38 раз из 40 не смог распознать подделку. ChatGPT, детище той же OpenAI, что создала Sora, ошибся в 92,5% случаев
Оглавление

Получается забавная картина. Компании годами учат нас не доверять всему, что видим в сети, и вот наступает момент, когда их собственные творения верят фейкам без тени сомнения. Новое исследование специалистов NewsGuard показало ироничный и немного тревожный парадокс: ведущие чат-боты с искусственным интеллектом с поразительной лёгкостью принимают видео, сгенерированные нейросетью Sora от OpenAI, за чистую монету. Причём не справляется даже родной продукт — ChatGPT.

Казалось бы, Sora уже успела наделать шума своей способностью создавать неотличимые от реальности ролики. Но, видимо, её «творчество» вводит в заблуждение не только людей. Тестирование было простым: эксперты загрузили в чат-боты 20 видео от Sora — часть с водяными знаками, часть без них. Результаты, мягко говоря, плачевные.

Провал с обеих сторон: с маркировкой и без

Самый откровенный «провальщик» — Grok от xAI. Он дал неверный ответ в 95% случаев, то есть 38 раз из 40 не смог распознать подделку. ChatGPT, детище той же OpenAI, что создала Sora, ошибся в 92,5% случаев. Gemini от Google показал себя чуть лучше, но его результат в 78% неправильных ответов тоже не вызывает доверия.

Особенно показательными стали конкретные примеры. Чат-ботам показали сгенерированные сцены: задержание подростка миграционной службой и высадку пассажира из самолёта из-за политической кепки. И Gemini, и ChatGPT отреагировали так, будто видят реальные новостные кадры, начав рассуждать о контексте событий на границе США и Мексики. Это уже не просто ошибка распознавания — это готовность строить нарратив на основе абсолютного вымысла.

Казалось бы, водяные знаки должны быть спасительным якорем. И да, с ними результаты улучшаются. Но даже они — не панацея. Тот же Grok в одном случае решил, что значок Sora — это логотип несуществующего новостного агентства «Sora News». В остальных случаях боты действительно указывали на маркировку как на признак генерации. Но суть-то в чём? Эти знаки легко удаляются простыми онлайн-сервисами. И в «чистом» виде видео успешно прошло проверку.

Почему это важно? Потому что доверяют машинам

Самая большая проблема здесь даже не в том, что нейросети друг друга не понимают. А в том, что обычные люди всё чаще используют этих ботов для проверки информации. Представьте: пользователь видит в сети шокирующее видео, копирует ссылку, закидывает в ChatGPT с вопросом «Это правда?» и получает уверенный ответ: «Да, инцидент подтверждён». Этот сценарий из теста NewsGuard уже не гипотетический.

Любопытно, что Google Gemini, который так плохо справился с видео от Sora, прекрасно определяет контент, созданный собственной моделью компании — Nano Banana Pro. Без всяких водяных знаков. Это наводит на мысль, что проблема не в принципиальной невозможности распознавания, а в отсутствии должных инструментов и, возможно, приоритетов. Как прямо заявил представитель OpenAI, ChatGPT вообще не предназначен для различия ИИ-видео от настоящего. Но будет ли это объяснением для пользователя, который наивно спросил у бота о достоверности?

Итог довольно печален. Технологии генерации контента развиваются семимильными шагами, а инструменты для его верификации — с явным отставанием. Мы создаём всё более совершенных «лжецов», а потом удивляемся, когда наши же цифровые помощники им верят. Это не баг, это системная особенность момента. И пока компании лишь разводят руками, как xAI, не предоставившая комментариев, или честно признаются, как OpenAI, что их чат-бот для этого не пригоден, поле для дезинформации становится только шире. Война с фейками проигрывается на самом интересном рубеже — там, где машины перестают отличать творение машин от реальности.