Найти тему
OVERCLOCKERS.RU

Водяные знаки на контенте, который создал искусственный интеллект, слишком легко удаляются

Поскольку генераторы изображений на базе искусственного интеллекта стали более доступными, люди все чаще используют их для создания фотографий и видеозаписей того, чего на самом деле не было (то есть фейков). Будь то ради смеха или в преднамеренной попытке распространить дезинформацию, эти творения способны ввести в заблуждение ничего не подозревающих пользователей по всему интернету. На бумаге маркировка водяным знаком контента, созданного искусственным интеллектом, кажется отличным способом избежать дезинформации пользователей, которые смогут заметить его с помощью программы обнаружения. Но на практике этот метод оказался не надежным.

Ученые из Университета Мэриленда взяли на себя задачу изучить эффективность методов обнаружения изображений, созданных искусственным интеллектом. В научной работе, опубликованной на портале arXiv, они пишут, что водяные знаки, внедренные в изображения в процессе генерации, легко удалить с помощью диффузионной очистки или подмены модели. Их исследование показало, что диффузионная очистка, которая добавляет, а затем удаляет гауссов шум, чтобы сделать невидимый водяной знак менее эффективным, также эффективна при стирании водяных знаков, размещенных с использованием методов с низким уровнем возмущений, таких как RivaGAN или WatermarkDM. Поскольку методы нанесения водяных знаков с высоким уровнем возмущений, такие как StegaStamp, нарушают скрытое пространство изображений, потребовалась подмена модели, чтобы запутать программное обеспечение для обнаружения искусственного интеллекта и заставить его ошибочно классифицировать изображения, сгенерированные искусственным интеллектом, как настоящие.

-2

Таблица, на которой показаны поддельные изображения, добавленные к ним шумы и полученные чистые изображения.

Результаты этой исследовательской работы, вероятно, разочаруют такие компании, как OpenAI, Microsoft, Alphabet, Amazon и Meta* (авторы известных ChatGPT, Claud и DALL-E). Ранее в этом году эти компании обязались начать ставить водяные знаки на контент, созданный искусственным интеллектом, чтобы бороться с дезинформацией. Их обязательство было добровольной частью усилий Белого дома по регулированию искусственного интеллекта, поскольку эта технология привлекает все больше внимания и ресурсов, чем когда-либо прежде. Хотя технологические гиганты и пообещали использовать водяные знаки для контента, чтобы успокоить Вашингтон, новости о неэффективности этих водяных знаков могут иметь последствия для регулирования искусственного интеллекта в дальнейшем.

Чтобы внести ясность: водяные знаки не должны были положить конец дезинформации, связанной с искусственным интеллектом. Большинство водяных знаков, особенно упомянутых ранее с низким уровнем возмущений, не видны и для их обнаружения требуется специальный алгоритм обнаружения. Вряд ли пользователи интернета будут отправлять каждое изображение или видео в программу обнаружения искусственного интеллекта, поэтому водяные знаки полезны только после того, как подозрения уже возникли. Поскольку генеративный ИИ продолжает широко распространяться, регуляторам, инженерам, исследователям и другим экспертам предстоит разработать надежные стратегии идентификации.

*Компания Meta признана экстремистской организацией и запрещена в РФ.