Художники смогут портить картинки чтобы ИИ не мог их рассмотреть
Инструмент Nightshade позволяет художникам "отравлять" свои изображения, после чего ИИ не сможет на них обучаться.
Nightshade добавляет к пикселям невидимые изменения. Когда ИИ попытается обучиться по такой картинке, эти изменения собьют его с толку и заставят видеть не то, что изображено. Например, обучаясь на картинке с автомобилем, ИИ будет уверен что видит корову. К такому типу атаки уязвимы DALL-E, Stable Diffusion и Midjourney.
Авторы сообщают, что Nightshade будет доступен на сайте фотостока Glaze.
—
@menngornal: мои и Алексея Менна мысли о венчурном рынке
Около минуты
26 октября 2023