В настоящее время инструмент находится на стадии исследования, но команда планирует интегрировать его с существующими инструментами защиты художников. Исследователи из Чикагского университета разработали инструмент, позволяющий художникам "отравлять" свои цифровые работы, чтобы помешать разработчикам обучать системы искусственного интеллекта (ИИ) на их произведениях.
Инструмент под названием "Nightshade", названный в честь семейства растений, некоторые из которых известны своими ядовитыми ягодами, модифицирует изображения таким образом, что их включение в наборы данных, используемых для обучения искусственного интеллекта, приводит к появлению некорректной информации.
Согласно отчету, опубликованному в журнале Technology Review Массачусетского технологического института, Nightshade изменяет пиксели цифрового изображения, чтобы обмануть систему искусственного интеллекта и заставить ее неверно интерпретировать изображение. В качестве примера в Tech Review приводится убеждение ИИ в том