Защита цифрового контента развивается примерно по одному сценарию: в индустрии придумывают некий замок, а пользователи находят к нему уникальный подход и взламывают. Иногда дольше, как в случае с Denuvo, иногда быстрее. Точно так же компании пытаются отметить сгенерированный ИИ-контент своих площадок – с помощью невидимых водяных знаков вроде SynthID. И если на бумаге такая защита выглядит надёжно, выдерживая фильтры, ресайз, сжатие и другие манипуляции с контентом, то на практике ключ к замку энтузиасты нашли очень быстро. Разработчик сгенерировал через нейросеть монохромные фоны, на которых скрытый шум SynthID фиксируется без помех от самой картинки. Оказалось, что алгоритм меняет свой принт в зависимости от разрешения и формата изображения. Исследователь собрал базу этих паттернов и написал скрипт, который вычитает нужный шум из файла. Заявленным результатом стал обход защиты без потери качества. Значит ли это, что дипфейки победили, а ИИ-контент больше нельзя распознать? Совсем не
Google придумал защиту для ИИ-изображений. Один разработчик с GitHub её обошёл
20 апреля20 апр
56
1 мин