Поскольку генераторы изображений на базе искусственного интеллекта стали более доступными, люди все чаще используют их для создания фотографий и видеозаписей того, чего на самом деле не было (то есть фейков). Будь то ради смеха или в преднамеренной попытке распространить дезинформацию, эти творения способны ввести в заблуждение ничего не подозревающих пользователей по всему интернету. На бумаге маркировка водяным знаком контента, созданного искусственным интеллектом, кажется отличным способом избежать дезинформации пользователей, которые смогут заметить его с помощью программы обнаружения. Но на практике этот метод оказался не надежным.
Ученые из Университета Мэриленда взяли на себя задачу изучить эффективность методов обнаружения изображений, созданных искусственным интеллектом. В научной работе, опубликованной на портале arXiv, они пишут, что водяные знаки, внедренные в изображения в процессе генерации, легко удалить с помощью диффузионной очистки или подмены модели. Их исследование показало, что диффузионная очистка, которая добавляет, а затем удаляет гауссов шум, чтобы сделать невидимый водяной знак менее эффективным, также эффективна при стирании водяных знаков, размещенных с использованием методов с низким уровнем возмущений, таких как RivaGAN или WatermarkDM. Поскольку методы нанесения водяных знаков с высоким уровнем возмущений, такие как StegaStamp, нарушают скрытое пространство изображений, потребовалась подмена модели, чтобы запутать программное обеспечение для обнаружения искусственного интеллекта и заставить его ошибочно классифицировать изображения, сгенерированные искусственным интеллектом, как настоящие.
Таблица, на которой показаны поддельные изображения, добавленные к ним шумы и полученные чистые изображения.
Результаты этой исследовательской работы, вероятно, разочаруют такие компании, как OpenAI, Microsoft, Alphabet, Amazon и Meta* (авторы известных ChatGPT, Claud и DALL-E). Ранее в этом году эти компании обязались начать ставить водяные знаки на контент, созданный искусственным интеллектом, чтобы бороться с дезинформацией. Их обязательство было добровольной частью усилий Белого дома по регулированию искусственного интеллекта, поскольку эта технология привлекает все больше внимания и ресурсов, чем когда-либо прежде. Хотя технологические гиганты и пообещали использовать водяные знаки для контента, чтобы успокоить Вашингтон, новости о неэффективности этих водяных знаков могут иметь последствия для регулирования искусственного интеллекта в дальнейшем.
Чтобы внести ясность: водяные знаки не должны были положить конец дезинформации, связанной с искусственным интеллектом. Большинство водяных знаков, особенно упомянутых ранее с низким уровнем возмущений, не видны и для их обнаружения требуется специальный алгоритм обнаружения. Вряд ли пользователи интернета будут отправлять каждое изображение или видео в программу обнаружения искусственного интеллекта, поэтому водяные знаки полезны только после того, как подозрения уже возникли. Поскольку генеративный ИИ продолжает широко распространяться, регуляторам, инженерам, исследователям и другим экспертам предстоит разработать надежные стратегии идентификации.
*Компания Meta признана экстремистской организацией и запрещена в РФ.