Найти тему
OVERCLOCKERS.RU

В MIT разработали инструмент не позволяющий искусственному интеллекту редактировать ваши изображения

С развитием искусственного интеллекта появляются новые проблемы, связанные с конфиденциальностью и дезинформацией, включая незаконное использование фотографии без согласия владельца фото. На данный момент любой пользователь интернета может взять вашу фотографию (если ваша страничка в соцсетях не закрытая) и отредактировать ее, добавить на нее что-то или наоборот убрать, но это требует времени, стараний и навыков. Новые нейросети устраняют необходимость во всех трех составляющих, что делает злонамеренные фотоманипуляции и кражи еще более привлекательными. Чтобы предотвратить это, группа ученых Массачусетского технологического института разработала инструмент, который "защищает" фотографии от попыток редактирования с помощью искусственного интеллекта.

Инструмент под названием PhotoGuard использует две разные стратегии для защиты изображений от ИИ. Первая включает в себя метод "шифрования", который добавляет сложную информацию о пикселях внутри изображения, такую как их расположение и цвет. Второй метод, называемый "диффузией", выбирает несколько пикселей и изменяет их настолько, чтобы они оставались незаметными для человеческого глаза. Оба метода блокируют попытки ИИ изменить целевое изображение, заставляя его воспринимать одну вещь (скажем, фотографию человека) как нечто совершенно другое (например, плоский серый квадрат). В результате, внесенные изменения в фотографии не позволяют ИИ вносить какие-либо значимые изменения в исходное изображение.

-2

Схема, показывающая оригинальное изображение, иммунизированное изображение (которое выглядит так же, как оригинальное) и отредактированное изображение так, как его видит искусственный интеллект (затемненное).

Поскольку изменения, вносимые PhotoGuard, практически незаметны, те, кто использует этот инструмент для защиты своих фотографий, могут по-прежнему делиться любимыми изображениями в социальных сетях. Но согласно сообщению в блоге авторов PhotoGuard, это не истинная цель. «Наша цель здесь не в том, чтобы предложить отдельным пользователям самим защищать свои собственные изображения», — написала команда для Gradient Science, управляемой Madry Lab Массачусетского технологического института. «Вместо этого мы надеемся, что компании, разрабатывающие нейросети, сами смогут предоставить API для защиты своих изображений от редактирования». Тем временем те, кто заинтересован в тестировании PhotoGuard, могут сделать это с помощью интерактивной демонстрации в профиле команды GitHub.

Массачусетский технологический институт — не единственное учреждение, работающее над методами защиты контента от ИИ. В феврале группа ученых-компьютерщиков из Чикагского университета объявила об инструменте под названием Glaze, который не позволял генераторам искусственного интеллекта очищать контент художников-людей и заниматься плагиатом их работ. С тех пор команда сделала Glaze доступным для скачивания и даже обновила инструмент, чтобы сделать его более доступным для общественности.

Однако когда дело доходит до фотографий, плагиат не является актуальной проблемой. Людей больше беспокоит мысль о том, что их фотографии могут быть использованы для дипфейков, незаконной порнографии или дезинформации. Хотя технологическая отрасль постепенно вводит ограничения для создания такого контента (а в некоторых случаях и заказывает их), теперь становится понятно, почему большинство мер безопасности появляются через несколько лет после того, как соответствующие технологии начинают действовать.