Генеративный ИИ быстро заполняет сеть, и пока мы взвешиваем последствия для образования , энергетики и человеческого творчества, становится все сложнее доверять всему, что появляется в сети. Это реально или это создано ИИ ?
На данный момент у нас нет 100-процентно надежного способа обнаружения контента ИИ каждый раз, но есть некоторые явные признаки сгенерированного компьютером текста, аудио, изображений и видео, на которые стоит обратить внимание. Добавьте немного человеческого интеллекта, и обычно можно сказать, когда есть хороший шанс, что что-то сгенерировано ИИ.
Здесь мы сосредоточимся на видео, созданном с помощью ИИ, созданном такими инструментами, как Sora от OpenAI , и мы также включили несколько примеров. В следующий раз, когда вы столкнетесь с видео, в котором вы не уверены, посмотрите, как оно соответствует этим критериям.
Плохой текст
Вы заметите, что во многих видео (и изображениях) ИИ отсутствует текст. Генеративный ИИ не очень хорошо справляется с текстом, потому что он не понимает буквы или язык — по крайней мере, не так, как люди. Знаки ИИ часто выглядят так, будто они написаны на инопланетном языке, поэтому обращайте внимание на искаженный текст или его отсутствие.
Это не значит, что хороший текст не будет появляться в видеороликах ИИ, но если он появляется, то, вероятно, он был добавлен позже. В этом трейлере Monster Camp (встроенном ниже), созданном Luma AI, некоторые вывески выглядят нормально (и, скорее всего, были добавлены вручную) — посмотрите на надписи на автобусе и ярмарочных прилавках, чтобы увидеть какую-то тарабарщину. Вам нужно будет смотреть внимательно, потому что странный текст не виден долго.
Быстрые (или медленные) разрезы
Это подводит нас к еще одной отличительной черте видео, созданного ИИ: вы часто будете замечать, что монтажные кадры очень короткие, а действие развивается очень быстро. Отчасти это делается для того, чтобы скрыть несоответствия и неточности в видео, которые вам показывают, — идея состоит в том, чтобы создать у вас впечатление чего-то реального, а не самого реального.
С другой стороны — и в противоречие с тем, что мы только что сказали — иногда действие будет замедлено. Однако конечная цель та же: не дать швам проявиться на грани возможностей ИИ.
В этом музыкальном видео, созданном искусственным интеллектом (встроенном ниже) от Washed Out, это первый вариант: все быстро и стремительно и исчезает прежде, чем вы успеваете как следует рассмотреть. Попробуйте остановить видео в разных местах, чтобы увидеть, сколько странностей вы можете заметить (мы заметили, как минимум, одного человека, слившегося со стеной).
Плохая физика
Генеративный ИИ знает, как смешивать движущиеся пиксели, чтобы показать что-то похожее на кошку, город или замок, однако он не понимает мир, трехмерное пространство или законы физики. Люди будут исчезать за зданиями или выглядеть по-разному между сценами, здания будут построены странным образом, мебель не будет выстраиваться должным образом и так далее.
Рассмотрим этот снимок с дрона (встроенный ниже), созданный Sora из OpenAI. Обратите внимание на толпу людей, идущих к нижней части сцены в нижнем левом углу: они все поглощают друг друга и в конце концов сливаются с перилами, потому что ИИ видит их как пиксели, а не как людей.
Зловещая долина
Видео AI часто имеет блеск, который кажется неестественным, и мы уже знакомы с фразой «зловещая долина», когда речь идет о компьютерной графике, которая пытается воспроизвести то, что реально и естественно. Вы часто будете посещать зловещую долину, когда смотрите видео AI, даже если это всего лишь на короткие моменты.
Если вы посмотрите на брендовый фильм , созданный Toys R Us с помощью Sora AI, вы увидите, что улыбка и движения волос маленького ребенка выглядят подозрительно неестественно. Он также выглядит как другой ребенок от сцены к сцене, потому что он не актер: он сгенерированный 2D-образ, основанный на том, как, по мнению AI, должен выглядеть мальчик.
Совершенные (или несовершенные) элементы
Это еще один пример противоречия, поскольку видео AI могут выдавать элементы, которые слишком совершенны или недостаточно совершенны. В конце концов, эти клипы создаются компьютерами, поэтому дизайн зданий, транспортных средств или материалов может повторяться снова и снова, в узорах, слишком безупречных, чтобы существовать в реальной жизни.
С другой стороны, ИИ продолжает бороться со всем естественным, будь то рука, подбородок или листья, развевающиеся на ветру. В этом видео от Runway AI бегущего астронавта вы заметите, что руки — это беспорядок (а также большая часть фоновой физики неверна, а текст размазан).
Проверьте контекст.
Тогда у вас есть все инструменты, которые у нас уже были для выявления дезинформации: еще до появления генеративного ИИ существовал Photoshop, поэтому некоторые правила выявления фейков остаются прежними.
Контекст имеет решающее значение — если видео исходит из официального аккаунта New York Times в социальных сетях, то оно, скорее всего, заслуживает доверия. Если же его пересылает безликий человек с X, у которого в имени пользователя много цифр, то, возможно, и того меньше.
Проверьте, было ли действие в видео снято с других ракурсов, или широко освещалось в другом месте, или на самом деле имеет какой-либо смысл. Вы также можете проверить у людей, которые показаны в видео: Если на заднем плане есть какой-то рассказ Моргана Фримена, Морган Фримен сможет подтвердить это так или иначе .