Поскольку генераторы изображений на базе искусственного интеллекта стали более доступными, люди все чаще используют их для создания фотографий и видеозаписей того, чего на самом деле не было (то есть фейков). Будь то ради смеха или в преднамеренной попытке распространить дезинформацию, эти творения способны ввести в заблуждение ничего не подозревающих пользователей по всему интернету. На бумаге маркировка водяным знаком контента, созданного искусственным интеллектом, кажется отличным способом избежать дезинформации пользователей, которые смогут заметить его с помощью программы обнаружения. Но на практике этот метод оказался не надежным. Ученые из Университета Мэриленда взяли на себя задачу изучить эффективность методов обнаружения изображений, созданных искусственным интеллектом. В научной работе, опубликованной на портале arXiv, они пишут, что водяные знаки, внедренные в изображения в процессе генерации, легко удалить с помощью диффузионной очистки или подмены модели. Их исследование
Водяные знаки на контенте, который создал искусственный интеллект, слишком легко удаляются
5 октября 20235 окт 2023
20
2 мин